• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 878
  • 59
  • 58
  • 11
  • 1
  • 1
  • 1
  • Tagged with
  • 1016
  • 706
  • 298
  • 242
  • 159
  • 157
  • 150
  • 148
  • 146
  • 141
  • 133
  • 130
  • 112
  • 108
  • 94
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
201

Mestre em Sistemas e Computa??o

Oliveira Filho, Isaac de Lima 26 February 2010 (has links)
Made available in DSpace on 2014-12-17T15:47:52Z (GMT). No. of bitstreams: 1 IsaacLOF_DISSERT.pdf: 3023517 bytes, checksum: 930863884e5d8399f785c0579333da82 (MD5) Previous issue date: 2010-02-26 / Coordena??o de Aperfei?oamento de Pessoal de N?vel Superior / In this work will applied the technique of Differential Cryptanalysis, introduced in 1990 by Biham and Shamir, on Pap?lio s cryptosystem, developed by Karla Ramos, to test and most importantly, to prove its relevance to other block ciphers such as DES, Blowfish and FEAL-N (X). This technique is based on the analysis of differences between plaintext and theirs respective ciphertext, in search of patterns that will assist in the discovery of the subkeys and consequently in the discovery of master key. These differences are obtained by XOR operations. Through this analysis, in addition to obtaining patterns of Pap?ılio, it search to obtain also the main characteristics and behavior of Papilio throughout theirs 16 rounds, identifying and replacing when necessary factors that can be improved in accordance with pre-established definitions of the same, thus providing greater security in the use of his algoritm / Neste trabalho ser?a aplicada a t?cnica de Criptoan?lise Diferencial, introduzida por Biham e Shamir, sobre o algoritmo de criptografia Pap?lio, desenvolvido por Karla Ramos, a fim de testar e, principalmente, provar sua relev ancia em rela??o a outras cifras de blocos como DES, Blow- Fish e FEAL-N(X). Esta t?ecnica tem por base a an?alise das diferenc?as entre os pares de textos claros e a diferenc?a entre as suas respectivas cifras, em busca de padr oes que auxiliar?o nas descobertas das sub chaves e consequentemente na descoberta da chave mestra, na qual est?a a seguran?a da cifra. Estas diferenc?as s?o obtidas atrav?s de opera??es XOR. Busca-se, com esta an?lise, al?m da obten??o de padr?es do Pap?lio, obter-se tamb?m as principais caracter?sticas e o comportamento do Pap?lio durante seus 16 ciclos, identificando e substituindo quando necess?rio, os fatores que podem ser melhorados de acordo com as defini??es pr?e estabelecidas do mesmo, para oferecer maior seguran?a na utiliza??o de sua cifra
202

Avalia??o da efici?ncia de uma c?mara de carbonata??o acerelada projetada e montada em laborat?rio / Evaluation of an accelerated carbonation chamber designed efficiency and mounted in laboratory

Lucena, Cleber Medeiros de 05 May 2016 (has links)
Submitted by Automa??o e Estat?stica (sst@bczm.ufrn.br) on 2016-08-27T00:37:00Z No. of bitstreams: 1 CleberMedeirosDeLucena_DISSERT.pdf: 9013175 bytes, checksum: 75f16c8bb3ea98fef072367d6efcb73d (MD5) / Approved for entry into archive by Arlan Eloi Leite Silva (eloihistoriador@yahoo.com.br) on 2016-09-02T21:26:23Z (GMT) No. of bitstreams: 1 CleberMedeirosDeLucena_DISSERT.pdf: 9013175 bytes, checksum: 75f16c8bb3ea98fef072367d6efcb73d (MD5) / Made available in DSpace on 2016-09-02T21:26:23Z (GMT). No. of bitstreams: 1 CleberMedeirosDeLucena_DISSERT.pdf: 9013175 bytes, checksum: 75f16c8bb3ea98fef072367d6efcb73d (MD5) Previous issue date: 2016-05-05 / Conselho Nacional de Desenvolvimento Cient?fico e Tecnol?gico (CNPq) / Esta pesquisa foi pautada no projeto e constru??o de uma c?mara de carbonata??o acelerada, em quatro etapas distintas, capaz de equipar um laborat?rio destinado a estudar a durabilidade das edifica??es, principalmente no tocante ?s pesquisas relacionadas ?s an?lises de materiais ciment?cios. A primeira etapa foi determinada no projeto propriamente dito, onde se pensou em dimens?es e materiais a ser utilizado. A segunda etapa destinou-se a constru??o da c?mara de carbonata??o e finalizou com o teste de estanqueidade com o intuito de garantir sua veda??o. A pesquisa teve continuidade em sua terceira etapa, com a automa??o e microcontrole da c?mara de carbonata??o atrav?s de um algoritmo desenvolvido e programado, capaz de interagir com a programa??o presente nos sensores e v?lvulas adquiridos comercialmente. Esta etapa, ainda contou com a calibra??o do sensor, utilizando padr?es rastre?veis internacionalmente e a realiza??o de pr?-testes em modelo reduzido, antes da instala??o definitiva na c?mara de carbonata??o. A quarta etapa foi submeter ao ensaio de carbonata??o acelerada, amostras cil?ndricas de concreto com dimens?es de 100mm x 200mm, no interior da c?mara de carbonata??o acelerada, conforme os padr?es da Laborat?rio Nacional de Engenharia Civil - LNEC E-391 (1993) e especifica??o FINAL DRAFT FprCEN/TS 12390-12, da European Committee Standardization de novembro de 2010. As amostras foram submetidas ao ensaio de carbonata??o acelerada aos 7, 14, 28, 42 e 56 dias de exposi??o e obtiveram respectivamente, profundidades m?dias de carbonata??o de 0,00mm, 1,62mm, 2,65mm, 3,35mm e 3,72mm. Por fim, a pesquisa cumpriu seus objetivos em projetar e construir uma c?mara de carbonata??o acelerada em laborat?rio, bem como teve sua efici?ncia avaliada atrav?s da calibra??o de seus dispositivos avaliadores de CO2 e sua estanqueidade, e garantiu sua funcionalidade atrav?s do ensaio de carbonata??o acelerada em um concreto convencional com 365kg/m? de cimento. / The carbon dioxide present in the atmosphere penetrates into the porous matrix of concrete internally and dissolves altering the chemical balance of the means. Due to this CO2 dissociation occurs a gradual lowering of the pH, which likely contributes to corrosion of the reinforcement. This research was based on the design and construction of chamber accelerated carbonation, automatically, in four steps, able to equip a laboratory for studying the durability of buildings, especially as regards research related to analysis of cementitious materials. The first step was the realization of the project itself, which is defined dimensions and materials to be used. The second step is intended construction of the carbonation chamber and submitted to the tightness test in order to ensure its sealing. The research continued in its third stage, with automation and microcontroller carbonation chamber through an algorithm developed and programmed, able to interact with the programming present on the sensors and valves commercially available. This stage also included the sensor calibration using internationally traceable standards and conducting pre-tests in reduced model before final installation in the carbonation chamber. The fourth step was to submit the test of accelerated carbonation, cylindrical samples of concrete with dimensions of 100mm x 200mm, inside the accelerated carbonation chamber, according to the standards of the National Laboratory of Civil Engineering - LNEC E-391 (1993) and specification FINAL DRAFT FprCEN / TS 12390-12, the European Committee of Standardization November 2010. The samples were subjected to accelerated carbonation test at 7, 14, 28, 42 and 56 days of exposure and obtained respectively mean depths carbonation 0,00mm, 1,62mm, 2.65mm, 3,35mm and 3,72mm. Finally, the study met its goals with project execution and construction of accelerated carbonation chamber in the laboratory and had their assessed efficiency through calibration of its evaluators devices CO2 and its tightness, and secured its functionality by test accelerated carbonation in a conventional concrete with 365kg / m? cement CP V ARI and factor a / c 0.50.
203

[en] APPLYING GENETIC ALGORITHMS TO THE PRODUCTION SCHEDULING OF A PETROLEUM / [es] PROGRAMACIÓN AUTOMÁTICA DE LA PRODUCCIÓN EN REFINERÍAS DE PETRÓLEO UTILIZANDO ALGORITMOS GENÉTICOS / [pt] PROGRAMAÇÃO AUTOMÁTICA DA PRODUÇÃO EM REFINARIAS DE PETRÓLEO UTILIZANDO ALGORITMOS GENÉTICOS

MAYRON RODRIGUES DE ALMEIDA 19 July 2001 (has links)
[pt] O objetivo desta dissertação é desenvolver um método de solução baseado em Algoritmos Genéticos (GAs) aliado a um Sistema Baseado em Regras para encontrar e otimizar as soluções geradas para o problema de programação da produção de Óleos Combustíveis e Asfalto na REVAP (Refinaria do Vale do Paraíba). A refinaria é uma planta multiproduto, com dois estágios de máquinas em série - um misturador e um conjunto de tanques, com restrição de recursos e operando em regime contínuo. Foram desenvolvidos neste trabalho dois modelos baseados em algoritmos genéticos que são utilizados para encontrar a seqüência e os tamanhos dos lotes de produção dos produtos finais. O primeiro modelo proposto utiliza uma representação direta da programação da produção em que o horizonte de programação é dividido em intervalos discretos de um hora. O segundo modelo proposto utiliza uma representação indireta que é decodificada para formar a programação da produção. O Sistema Baseado em Regras é utilizado na escolha dos tanques que recebem a produção e os tanques que atendem à demanda dos diversos centros consumidores existentes. Um novo operador de mutação - Mutação por Vizinhança - foi proposto para minimizar o número de trocas operacionais na produção. Uma técnica para agregação de múltiplos objetivos, baseado no Método de Minimização de Energia, também foi incorporado aos Algoritmos Genéticos. Os resultados obtidos confirmam que os Algoritmos Genéticos propostos, associados com o Método de Minimização de Energia e a Mutação por Vizinhança, são capazes de resolver o problema de programação da produção, otimizando os objetivos operacionais da refinaria. / [en] The purpose of this dissertation is to develop a method, based on Genetics Algorithms and Rule Base Systems, to optimize the production scheduling of fuel oil and asphalt area in a petroleum refinery. The refinery is a multi- product plant, with two machine stages - one mixer and a set of tanks - with no setup time and with resource constrains in continuous operation. Two genetic algorithms models were developed to establish the sequence and the lot- size of all production shares. The first model proposed has a direct representation of the production scheduling which the time interval of scheduling is shared in one hour discrete intervals. The second model proposed has a indirect representation that need to be decoded in order to make the real production scheduling. The Rule Base Systems were developed to choice the tanks that receive the production and the tanks that provide the demand of the several consumer centers. A special mutation operator - Neighborhood Mutation - was proposed to minimize the number of changes in the production. A Multi-objective Fitness Evaluation technique, based on a Energy Minimization Method, was also incorporated to the Genetic Algorithm models. The results obtained confirm that the proposed Genetic Algorithm models, associated with the Multi- objective Energy Minimization Method and the Neighborhood Mutation, are able to solve the scheduling problem, optimizing the refinery operational objectives. / [es] El objetivo de esta disertación es desarrollar un método de solución utilizando Algoritmos Genéticos (GAs) aliado a un Sistema Basado en Reglas para encontrar y optimizar las soluciones generadas para el problema de programación de la producción de Aceites Combustibles y Asfalto en la REVAP (Refinería del Valle de Paraíba). La refinería es una planta multiproducto, con dos estados de máquinas en serie - un mezclador y un conjunto de tanques, con restricción de recursos y operando en régimen contínuo. En este trabajo se desarrollaron dos modelos basados en algoritmos genéticos que son utilizados para encontrar la secuencia y los tamaños de los lotes de producción de los productos finales. El primer modelo propuesto utiliza una representación directa de la programación de la producción en la cuál el horizonte de programación se divide en intervalos discretos de un hora. El segundo modelo, utiliza una representación indirecta que es decodificada para formar la programación de la producción. EL Sistema Basado en Reglas se utiliza en la selección de los tanques que reciben la producción y los tanques que atienden a la demanda de los diversos centros consumidores. Un nuevo operador de mutación - Mutación por Vecindad - fue propuesto para minimizar el número de cambios operacionales en la producción. le fue incorporado a los Algoritmos Genéticos una técnica para la agregación de múltiples objetivos, basado en el Método de Minimización de Energía. Los resultados obtenidos confirman que los Algoritmos Genéticos propuestos, asociados al Método de Minimización de Energía y la Mutación por Vecindad, son capazes de resolver el problema de programación de la producción, optimizando los objetivos operacionales de la refinería.
204

Simula??o em n?vel de gene e de indiv?duo aplicada ao melhoramento animal / Simulation of individual and gene level applied to animal breeding

Farah, Michel Marques 15 July 2010 (has links)
Submitted by Rodrigo Martins Cruz (rodrigo.cruz@ufvjm.edu.br) on 2015-12-17T16:32:54Z No. of bitstreams: 2 michel_marques_farah.pdf: 437133 bytes, checksum: efc5c1b8937d6edbcc7aaf0f1481a293 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Approved for entry into archive by Rodrigo Martins Cruz (rodrigo.cruz@ufvjm.edu.br) on 2015-12-17T16:33:17Z (GMT) No. of bitstreams: 2 michel_marques_farah.pdf: 437133 bytes, checksum: efc5c1b8937d6edbcc7aaf0f1481a293 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Made available in DSpace on 2015-12-17T16:33:19Z (GMT). No. of bitstreams: 2 michel_marques_farah.pdf: 437133 bytes, checksum: efc5c1b8937d6edbcc7aaf0f1481a293 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Previous issue date: 2010 / Coordena??o de Aperfei?oamento de Pessoal de N?vel Superior (CAPES) / A simula??o de dados apresenta diversas vantagens, como proporcionar a obten??o de respostas ? sele??o e diminuir o tempo necess?rio para a avalia??o das metodologias estudadas no melhoramento gen?tico animal. Por?m, os trabalhos que utilizam simula??o empregam v?rios termos como simula??o estoc?stica, simula??o determin?stica, simula??o de Monte Carlo, simula??o em n?vel de gene e simula??o em n?vel de indiv?duo e, muitas vezes, estes termos s?o utilizados de maneiras diferentes ou em outras condi??es, causando uma diverg?ncia nos termos utilizados. Assim, os objetivos deste trabalho foram agrupar, definir e diferenciar os termos t?cnicos utilizados nos trabalhos de simula??o em melhoramento gen?tico animal e comparar e definir as propriedades dos procedimentos de simula??o em n?vel de indiv?duo e em n?vel de gene. Foram desenvolvidos tr?s cen?rios de simula??o, em n?vel de indiv?duo, em n?vel de gene com e sem marcador utilizando o software LZ5. Foram simuladas tr?s popula??es de su?nos para cada cen?rio e com diferentes herdabilidades (0,12, 0,27 e 0,47). A popula??o-base foi constitu?da de 1500 animais, sendo 750 machos e 750 f?meas e para as duas simula??es em n?vel de gene foi considerado um genoma de 2800 cM e 18 cromossomos de tamanhos aleat?rios, as caracter?sticas foram governadas por 500 locos polig?nicos dial?licos, com freq??ncias al?licas iguais e taxa de recombina??o de 0,01. Para a simula??o em n?vel de gene com marcadores, ainda foram distribu?dos marcadores distanciados igualmente a 50 cM e distribu?dos aleatoriamente 5 QTLs por todo o genoma. Os valores amostrados apresentaram bem semelhantes para os tr?s tipos de simula??o, apresentando um aumento das vari?ncias aditiva e fenot?pica e da herdabilidade nas primeiras gera??es e depois decrescendo ao longo das gera??es. J? para a m?dia fenot?pica, houve um ganho gen?tico por gera??o, indicando que todos os m?todos utilizados s?o eficientes para a obten??o de dados simulados. Assim, a vantagem da simula??o em n?vel de gene ? que ? poss?vel simular marcadores moleculares e QTLs, enquanto a simula??o em n?vel de indiv?duo ? muito eficiente para obten??o de dados como o valor gen?tico do indiv?duo e da m?dia fenot?pica da popula??o em um per?odo de tempo muito menor, pois demanda menos recursos computacionais e de algoritmos estruturados para desenvolver quando comparado com a simula??o em n?vel de gene. Portanto, define-se simula??o em n?vel de indiv?duo como uma metodologia de simula??o que consiste em gerar valores gen?ticos (G) a partir de uma distribui??o normal com m?dia e vari?ncia previamente definidas; enquanto para a simula??o em n?vel de gene a metodologia consiste em gerar os valores dos efeitos de cada loco polig?nico e seus QTLs, a partir de uma distribui??o normal com m?dia e vari?ncia previamente definidas para cada componente, e pela soma destes, obt?m-se o G de cada indiv?duo da popula??o. Para a gera??o do efeito residual (E) as duas metodologias de simula??o s?o feitas da mesma forma, gerando-se um efeito aleat?rio amostrado, tamb?m, de uma distribui??o normal e assim obt?m-se os valores fenot?picos (P) de cada indiv?duo pela soma destes dois componentes (G+E). / Disserta??o (Mestrado) ? Programa de P?s-Gradua??o em Zootecnia, Universidade Federal dos Vales do Jequitinhonha e Mucuri, 2010. / ABSTRACT The simulation data has several advantages, such as providing the obtaining responses to selection and reduce the time required for evaluation methodologies studied in animal breeding. However, simulation studies employ various terms such as simulation stochastic, deterministic simulation, Monte Carlo simulation, simulation level of gene and simulation at the individual level and often these terms are used in different ways or in other conditions, causing a divergence in the terms used. Thus, the objectives were cluster, define and differentiate the technical terms used in the work of simulation in animal breeding and compare and define the properties procedures for simulation-level and individual-level gene. There had been developed three scenarios for simulation at the individual-level and level gene, with and without marker, using the software LZ5. There had been simulated three pig populations for each scenario, with different heritabilities (0.12, 0.27 and 0.47). The base population consisted of 1500 animals, 750 males and 750 females and for both simulations at the level of the gene was considered a genome of 2800 cM, and 18 chromosomes in random sizes, the characteristics were governed by 500 loci diallelic polygenic, with equal allele frequencies and recombination rate of 0.01. For the simulation Level with gene markers, were also distributed bookmarks equally spaced at 50 cM and five QTL distributed randomly across the genome. The sampled values were very similar for the three types of simulation, an increase of additive variance and phenotype and heritability in the first generations and then decreasing to over the generations. As for the average phenotype was a genetic per generation, indicating that all methods used are efficient for obtain simulated data. Thus, the advantage of gene-level simulation is that it can simulate molecular markers and QTLs, while the simulation at individual level is very efficient for obtaining data as the individual's genetic value and phenotypic average of the population over a period of much less time, since it requires less computational resources and algorithms structured to develop, when compared with the simulation-level gene. Therefore, it is defined as the individual level simulation a methodology simulation that generates breeding values (G) from a normal distribution with mean and variance as previously defined; and the gene level simulation is defined as a methodology that generates the values of effects of each locus and their polygenic QTLs from a normal distribution with mean and variance previously defined for each component, and the sum of these gives the G of each individual in the population. For the generation of residual effect (E) the two simulation methodologies are made in the same way, generating a random effects sampled also a normal distribution and so it was obtained the phenotypic values (P) of each individual by summing these two components (G+E).
205

Desenvolvimento de um modelo de incrustação e aplicação de algoritmo genético na programação de limpezas de tanques de resfriamento.

SOUZA, Luciano Medeiros de. 13 September 2018 (has links)
Submitted by Maria Medeiros (maria.dilva1@ufcg.edu.br) on 2018-09-13T12:13:14Z No. of bitstreams: 1 LUCIANO MEDEIROS DE SOUZA - TESE (PPGEP) 2008.pdf: 1622133 bytes, checksum: e718708aa81aa024dab3ad2700717546 (MD5) / Made available in DSpace on 2018-09-13T12:13:14Z (GMT). No. of bitstreams: 1 LUCIANO MEDEIROS DE SOUZA - TESE (PPGEP) 2008.pdf: 1622133 bytes, checksum: e718708aa81aa024dab3ad2700717546 (MD5) Previous issue date: 2008-05-30 / Capes / No processo de produção de soda cáustica, umas das etapas é o resfriamento da solução de hidróxido de sódio. O resfriamento da solução de hidróxido de sódio é feito em uma série de tanques que utilizam água gelada e água de torre de resfriamento para reduzir a temperatura da solução até um valor especificado. Cada tanque é dotado de agitador e serpentina de resfriamento. A água usada para resfriamento escoa no interior das serpentinas em contracorrente. Nos primeiros tanques usa-se água da torre de resfriamento e nos últimos tanques água gelada. Um dos grandes problemas dos processos industriais é a incrustação formada nos equipamentos. No sistema de resfriamento de soda cáustica, incrustações se formam devido à cristalização de sais em torno da serpentina diminuindo o coeficiente global de transferência de calor. Um modelo assintótico em função do tempo para incrustações nos tanques foi ajustado para determinar o melhor momento da limpeza do tanque. Otimizar a limpeza dos tanques em relação ao período de tempo e a escolha do tanque é e minimizar o número de limpezas periódicas são os objetivos deste trabalho. A função objetivo é calculada pelo programa baseado num modelo para a simulação deste sistema de resfriamento com modelo de incrustação assintótica desenvolvido anteriormente para este projeto e integrado a outros subprogramas desenvolvidos em MATLAB que utilizam os algoritmos genéticos para escolherem as melhores soluções para o sistema. A partir dos algoritmos genéticos determinaram-se alguns ótimos locais analisando os valores da temperatura da solução no último tanque e o número de limpezas por dia, assim como efeitos na carga térmica e na diferença de temperatura entre a água de resfriamento e a solução. Com o uso dos algoritmos genéticos está sendo possível encontrar padrões ótimos de limpeza para os tanques. / In the process of caustic soda production, one of the stages is the cooling of the sodium hydroxide solution. The cooling of the sodium hydroxide solution is made in a series of tanks that use frozen water and water of cooling tower to reduce the temperature of the solution until the specified value. Each tank is endowed with agitator and coil of cooling. The cooling water flows in the interior of the coils in countercurrent. The water of cooling tower is used in the first tanks, where as the frozen in the last tanks. One of the great problems of the industrial processes is the fouling formed in the equipment. In the system of caustic soda water cooling of the BRASKEM, fouling if they form due to crystallization of leave around the coil diminishing the global coefficient transference heat. An asymptotic model in function of the time for fouling in the tanks it was adjusted to determine optimum moment where the tank must be clean. To optimize the cleaning of the tanks in relation to the period of time and the choice of the tank is and to minimize the number of periodic cleanings they are the objectives of this work. The objective function is calculated by the program based on a model for the simulation of this system of cooling with developed previously for this project and integrated model of asymptotic fouling function to other subprograms developed in MATLAB that use the genetic algorithms to choose the best solutions for the system. From the genetic algorithms some excellent places had been determined analyzing the values of the temperature of the solution in the last tank and the number of cleaning per day, as well as effect in the thermal load and the difference of temperature enters the water of cooling and the solution. With the use of the genetic algorithms it is being possible to find optimum cleaning schedule for the tanks.
206

[en] SIMULATION AND DESIGN OF GAAS/ALGAAS QUANTUM WELL SOLAR CELLS AIDED BY GENETIC ALGORITHM / [pt] SIMULAÇÃO E PROJETO DE CÉLULAS SOLARES COM POÇOS QUÂNTICOS DE GAAS/ALGAAS AUXILIADO POR ALGORITMOS GENÉTICOS

ANDERSON PIRES SINGULANI 03 March 2010 (has links)
[pt] A energia é assunto estratégico para a grande maioria dos países e indústrias no mundo. O consumo atual energético é de 138,32 TWh por ano e é previsto um aumento de 44% até o ano de 2030 o que demonstra um mercado em expansão. Porém, a sociedade atual exige soluções energéticas que causem o menor impacto ambiental possível, colocando em dúvida o uso das fontes de energia utilizadas atualmente. O uso da energia solar é uma alternativa para auxiliar no atendimento da futura demanda de energia. O seu principal entrave é o custo de produção de energia ser superior as fontes de energia atuais, principalmente o petróleo. Contudo nos últimos 10 anos foi verificado um crescimento exponencial na quantidade de módulos fotovoltaicos instalados em todo mundo. Nesse trabalho é realizado um estudo sobre célula solares com poços quânticos. O uso de poços quânticos já foi apontado como ferramenta para aumentar a eficiência de células fotovoltaicas. O objetivo é descrever uma metodologia baseada em algoritmos genéticos para projeto e análise desse tipo de dispositivo e estabelecer diretivas para se construir uma célula otimizada utilizando esta tecnologia. Os resultados obtidos estão de acordo com dados experimentais, demonstram a capacidade dos poços quânticos em aumentar a eficiência de uma célula e fornecem uma ferramenta tecnológica que espera-se contribuir para o desenvolvimento do país no setor energético. / [en] The energy is a strategical issue for the great majority of the countries and industries in the world. The current world energy consumption is of 138,32 TWh per year and is foreseen an increase of 44% until the year of 2030 which demonstrates a market in expansion. However, the society demands energy solutions that cause as least ambient impact as possible, putting in doubt the use of the current technologies of power plants. The utilization of solar energy is an alternative to assist in the attendance of the future demand of energy. Its main impediment is the superior cost of energy production in comparison with the current power plants, mainly the oil based ones. However in last the 10 years an exponential growth in the amount of installed photovoltaics modules worldwide was verified. In this work a study on solar cell with quantum wells is carried through. The use of quantum wells already was pointed as tool to increase the efficiency of photovoltaics cells. The objective is to describe a methodology based on genetic algorithms for project and analysis of this type of device and to establish directive to construct an optimized cell using this technology. The results are in accordance with experimental data, that demonstrates the capacity of the quantum wells in increasing the efficiency of a cell and supply a technological tool that expects to contribute for the development of the country in the energy sector.
207

[en] UNSUPERVISED CLASSIFICATION OF SATELLITE IMAGES / [pt] CLASSIFICAÇÃO NÃO-SUPERVISIONADA DE IMAGENS DE SENSORIAMENTO REMOTO

ALEXANDRE HENRIQUE LEAL NETO 12 June 2006 (has links)
[pt] A classificação e segmentação não-supervisionadas de imagens de sensoriamento remoto são examinadas neste trabalho. A classificação é realizada tomando-se como base o critério de Bayes, que busca minimizar o valor esperado do erro de classificação. Os algoritmos desenvolvidos foram propostos pressupondo-se que a estrutura das classes presentes na imagem podem ser bem modeladas por vetores aleatórios guassianos. Os classificadores convencionais, que só levam em conta a informação dos pixels de forma isolada, forma tratados sob a ótica da quantização vetorial. Em particular, foi proposto um algoritmo de classificação com base na quantização vetorial com restrição de entropia. O desempenho das técnicas de classificação é analisado obsevando-se a discrepância entre classificações, comparando-se as imagens classificadas com imagens referencia e classificando-se imagens sintéticas. A taxa de acerto, entre 80% e 95%. Este bom desempenho dos classificadores é limitado pelo fato de, em suas estruturas, levarem em conta a informação dos pixels de forma isolada. Buscamos, através da classificação de segmentos, incorporar informações de contexto em nossos classificadores. A classificação de segmentos levou a taxas de erros inferiores àquelas alcançadas por classificadores baseados em pixels isolados. Um algoritmo de segmentação, que incorpora ao modelo de classificação por pixels a influencia de sua vizinhança através de uma abordagem markoviana, é apresentado. / [en] Unsupervised classification and segmentation of satellite images are examined in this work. The classification is based on Bayes` criterion, which tries to minimize the expected value of the classification error. The algorthms developed were proposed postulating that the classes in the image are well modeled by gaussian random vectors. Conventional classifiers, which take into account only pixelwise information, were treated as vector quantizers. Specifically, it was proposed a classification algorithm based on entropy constrained vector. The behaviour of the classifiers is examined observing the discrepancy between classifications, comparing classified images with reference-images and classifyng sinthetic images. The percentage of pixels whitch are assigned to the same class as in the reference-images ranged from 80,0% to 95,0%. This good behaviour of the classidiers is limited by the fact that, in theirs structures, are taken into account only isolated pixel information. We have sought, by classifying segments, to introduce contextual information into the classifiers structure. The segments classidiers. A segmentation algorithm, which introduces contextual information into pixelwise classifier by a markovian approach, is presented.
208

[en] SUB-BAND IMAGE CODING / [pt] CODIFICAÇÃO DE IMAGENS POR DECOMPOSIÇÃO EM SUB-BANDAS

EDMAR DA COSTA VASCONCELLOS 05 July 2006 (has links)
[pt] Este trabalho aborda o problema da compressão de imagens explorando a técnica de codificação por sub-bandas(SBB). Como estrutura básica, usada na primeira parte do trabalho, tem-se a divisão da imagem em 16 sub-bandas buscando replicar os resultados de woods [1]. As componentes das 16 SBB são quantizadas e codificadas, e bits são alocados às SBB usando como critério a minimização do erro médio quadrático. Os quantizadores são projetados segundo uma distribuição Gaussiana Generalizada. Neste processo de codificação, a sub-banda de mais baixa freqüência é codificada com DPCM, enquanto as demais SBB são codificadas por PCM. Como inovação, é proposto o uso do algoritmo de Lempel-Ziv na codificação sem perdas (compactação) das sub-bandas quantizadas. Na compactação são empregados os algoritmos de Huffman e LZW (modificação do LZA). Os resultados das simulações são apresentados em termos da taxa (bits/pixel) versus relação sinal ruído de pico e em termos de analise subjetiva das imagens reconstruídas. Os resultados obtidos indicam um desempenho de compressão superior quanto o algoritmo de Huffman é usado, comparado com o algoritmo LZW. A melhoria de desempenho, na técnica de decomposição em sub-bandas, observada com o algoritmo de Huffman foi superior (2dB acima). Todavia, tendo em vista as vantagens da universalidade do algoritmo de Lempel-Ziv, deve-se continuar a investigar o seu desempenho implementado de forma diferente do explorado neste trabalho. / [en] This work focus on the problem of image compression, with exploring the techniques of subband coding. The basic structure, used in the sirst part of this tesis, encompass the uniform decomposition of the image into 16 subbands. This procedure aims at reproducing the reults of Woods [1]. The component of the 16 subbands are quatized and coded and bits are optimally allocated among the subbands to minimize the mean-squared error. The quantizers desingned match the Generelized Gaussian Distribuition, which model the subband components. In the coding process, the lowest subband is DPCM coded while the higher subbands are coded with PCM. As an innovation, it is proposed the use of the algorithm LZW for coding without error (compaction) the quantized subbands. In the compactation process, the Huffamn and LZW algorithms are used. The simulation results are presented in terms of rate (bits/pel) versus peak signal-to-noise and subjective quality. The performance of the subband decomposition tecnique obtained with the Huffamn´s algorithm is about 2dB better than that obtained with the LZW. The universality of the Lempel-Ziv algorithm is, however, an advantage that leads us to think that further investigation should still be pursued.
209

[en] DISCRETE WAVELET TRANFORM IN CONNECTION WITH THE LOSSY LEMPEL-ZIV CODE / [pt] COMPRESSÃO DE IMAGENS USANDO A TRANSFORMADA WAVELET DISCRETA ASSOCIADA AO CÓDIGO DE LEMPEL-ZIG COM PERDAS

SERGIO MARCONDES KNUST 19 July 2006 (has links)
[pt] Neste trabalho é investigada uma técnica de compressão de imagens empregando a Transformada Wavelet Discreta em conexão com o código de compressão mLLZ/d, que é baseado no algoritmo de Lempel-zig com perdas. Primeiramente é apresentada a teoria das wavelets e são discutidos diversos códigos para compactação e compressão baseados no algoritmo de Lempel-Ziv. Em seguida, são apresentados os resultados de diversas simulações realizadas com quatro imagens comumente empregadas neste tipo de análise, de forma a avaliar o desempenho do método em termos de qualidade objetiva e subjetiva. Finalmente, os resultados foram analisados e comparados aos obtidos com outras técnicas de compressão, publicadas em dissertações de mestrado anteriores. / [en] In this work an image compression method employing the Discrete Wavelet Tranform in connection with the Lossy Lempel-Ziv code mLLZ/d is investigated. At first, the wavelet theory as well as several lossy and lossless codes based on the Lempel-ziv algorithm are discussed. Afterwards, simulations are implemented using four images, which are commonly used as a standard for this type of analysis, in order to evaluate the performance of the method in terms of both objective and subjective quality. Finally, the results are analyzed and compared to the ones obtained with other compression techniques, already published in former thesis.
210

[en] PROBABILISTIC POWER FLOW: THEORY AND APPLICATION / [pt] FLUXO DE POTÊNCIA PROBABILÍSTICO: TEORIA E APLICAÇÃO

VINICIUS LEAL ARIENTI 08 June 2006 (has links)
[pt] Um algoritmo de Fluxo de Potência Probabilístico (FPP) permite avaliar a probabilidade de ocorrência de certos eventos em um sistema de potência, baseado em seu desempenho passado, na previsão das demandas e nas disponibilidades das unidades geradoras e equipamentos de transmissão. Tais eventos são sobrecargas, sobre/subtensões e insuficiência de geração de potência ativa/reativa. As probabilidades ou riscos associados a tais eventos são medidas ou índices de adequação relacionando cargas, equipamentos disponíveis e a política operativa. Pode-se dizer que a formulação de FPP mais realista até hoje proposta possui duas restrições básicas. A primeira é a dificuldade de se obter simultaneamente e de forma eficiente, todos os índices de adequação. A segunda está relacionada com a precisão do algoritmo para as grandezas reativas, mesmo para níveis de incerteza não muito elevados. Neste trabalho, além de ser proposto um novo algoritmo de solução que resolve as restrições anteriormente citadas de forma bastante simples e eficaz, são demonstradas diversas aplicações dos algoritmos de FPP e também definidas metodologias de utilização desta ferramenta em estudos de planejamento da operação e da expansão, ressaltando-se ainda as similaridades com a análise de confiabilidade global de sistemas de potência. A aplicação dos métodos de FPP, obtendo informações adicionais para complementar a abordagem determinística convencional, tem demonstrado ser uma ferramenta auxiliar bastente útil no processo de tomada de decisão. As vantagens da inclusão deste algoritmo no rol de técnicas imprescindíveis aos engenheiros vem incentivando o uso desta abordagem de maneira mais ampla. / [en] A Probabilistic Power Flow Algorithm (PPF) allows the practical evaluation of the probability of occurrence of power system events, based on their historical performance, load forecast and availability of generating units and transmission equipment. Such events are overlads, undervoltages, overvoltages and indufficiency of active/reactive power generation. The probabilities or risks associated to these events are adequacy measures, or indices, linking loads, available equipment and operational policies. The practical PPF formulations available in literature present two main drawbacks. The first one is related with the computational difficulty in simultaneously obtaining all basic adequacy indices, within an efficient computational scheme. The second is related with the accuracy of calculated reactive figures, even in the case of modest uncertainty levels. In this work, a new, simple and efficient PPF algorithm, which alleviates the previous drawbacks, is proposed. Several practical applications of the proposed PPF algorithm are described as well as methodologies for its use in operational and expansion planning. Also, the similarities between PPF and composite reliability evaluation algorithms are emphasized. The application of PPF methods, providing additional information to the conventional deterministic approaches, has shown to be a very important auxiliary tool in the decision making process, thus contributing for the broad use of probabilistic methods.

Page generated in 0.0501 seconds