Spelling suggestions: "subject:"algoritmo A*"" "subject:"lgoritmo A*""
201 |
Mestre em Sistemas e Computa??oOliveira Filho, Isaac de Lima 26 February 2010 (has links)
Made available in DSpace on 2014-12-17T15:47:52Z (GMT). No. of bitstreams: 1
IsaacLOF_DISSERT.pdf: 3023517 bytes, checksum: 930863884e5d8399f785c0579333da82 (MD5)
Previous issue date: 2010-02-26 / Coordena??o de Aperfei?oamento de Pessoal de N?vel Superior / In this work will applied the technique of Differential Cryptanalysis, introduced in 1990 by Biham and Shamir, on Pap?lio s cryptosystem, developed by Karla Ramos, to test and most importantly, to prove its relevance to other block ciphers such as DES, Blowfish and FEAL-N (X). This technique is based on the analysis of differences between plaintext and theirs respective
ciphertext, in search of patterns that will assist in the discovery of the subkeys and consequently in the discovery of master key. These differences are obtained by XOR operations. Through
this analysis, in addition to obtaining patterns of Pap?ılio, it search to obtain also the main characteristics and behavior of Papilio throughout theirs 16 rounds, identifying and replacing when
necessary factors that can be improved in accordance with pre-established definitions of the same, thus providing greater security in the use of his algoritm / Neste trabalho ser?a aplicada a t?cnica de Criptoan?lise Diferencial, introduzida por Biham e Shamir, sobre o algoritmo de criptografia Pap?lio, desenvolvido por Karla Ramos, a fim de testar e, principalmente, provar sua relev ancia em rela??o a outras cifras de blocos como DES, Blow- Fish e FEAL-N(X). Esta t?ecnica tem por base a an?alise das diferenc?as entre os pares de textos
claros e a diferenc?a entre as suas respectivas cifras, em busca de padr oes que auxiliar?o nas descobertas das sub chaves e consequentemente na descoberta da chave mestra, na qual est?a a seguran?a da cifra. Estas diferenc?as s?o obtidas atrav?s de opera??es XOR. Busca-se, com esta an?lise, al?m da obten??o de padr?es do Pap?lio, obter-se tamb?m as principais caracter?sticas
e o comportamento do Pap?lio durante seus 16 ciclos, identificando e substituindo quando necess?rio, os fatores que podem ser melhorados de acordo com as defini??es pr?e estabelecidas
do mesmo, para oferecer maior seguran?a na utiliza??o de sua cifra
|
202 |
Avalia??o da efici?ncia de uma c?mara de carbonata??o acerelada projetada e montada em laborat?rio / Evaluation of an accelerated carbonation chamber designed efficiency and mounted in laboratoryLucena, Cleber Medeiros de 05 May 2016 (has links)
Submitted by Automa??o e Estat?stica (sst@bczm.ufrn.br) on 2016-08-27T00:37:00Z
No. of bitstreams: 1
CleberMedeirosDeLucena_DISSERT.pdf: 9013175 bytes, checksum: 75f16c8bb3ea98fef072367d6efcb73d (MD5) / Approved for entry into archive by Arlan Eloi Leite Silva (eloihistoriador@yahoo.com.br) on 2016-09-02T21:26:23Z (GMT) No. of bitstreams: 1
CleberMedeirosDeLucena_DISSERT.pdf: 9013175 bytes, checksum: 75f16c8bb3ea98fef072367d6efcb73d (MD5) / Made available in DSpace on 2016-09-02T21:26:23Z (GMT). No. of bitstreams: 1
CleberMedeirosDeLucena_DISSERT.pdf: 9013175 bytes, checksum: 75f16c8bb3ea98fef072367d6efcb73d (MD5)
Previous issue date: 2016-05-05 / Conselho Nacional de Desenvolvimento Cient?fico e Tecnol?gico (CNPq) / Esta pesquisa foi pautada no projeto e constru??o de uma c?mara de carbonata??o acelerada, em quatro etapas distintas, capaz de equipar um laborat?rio destinado a estudar a durabilidade das edifica??es, principalmente no tocante ?s pesquisas relacionadas ?s an?lises de materiais ciment?cios. A primeira etapa foi determinada no projeto propriamente dito, onde se pensou em dimens?es e materiais a ser utilizado. A segunda etapa destinou-se a constru??o da c?mara de carbonata??o e finalizou com o teste de estanqueidade com o intuito de garantir sua veda??o. A pesquisa teve continuidade em sua terceira etapa, com a automa??o e microcontrole da c?mara de carbonata??o atrav?s de um algoritmo desenvolvido e programado, capaz de interagir com a programa??o presente nos sensores e v?lvulas adquiridos comercialmente. Esta etapa, ainda contou com a calibra??o do sensor, utilizando padr?es rastre?veis internacionalmente e a realiza??o de pr?-testes em modelo reduzido, antes da instala??o definitiva na c?mara de carbonata??o. A quarta etapa foi submeter ao ensaio de carbonata??o acelerada, amostras cil?ndricas de concreto com dimens?es de 100mm x 200mm, no interior da c?mara de carbonata??o acelerada, conforme os padr?es da Laborat?rio Nacional de Engenharia Civil - LNEC E-391 (1993) e especifica??o FINAL DRAFT FprCEN/TS 12390-12, da European Committee Standardization de novembro de 2010. As amostras foram submetidas ao ensaio de carbonata??o acelerada aos 7, 14, 28, 42 e 56 dias de exposi??o e obtiveram respectivamente, profundidades m?dias de carbonata??o de 0,00mm, 1,62mm, 2,65mm, 3,35mm e 3,72mm. Por fim, a pesquisa cumpriu seus objetivos em projetar e construir uma c?mara de carbonata??o acelerada em laborat?rio, bem como teve sua efici?ncia avaliada atrav?s da calibra??o de seus dispositivos avaliadores de CO2 e sua estanqueidade, e garantiu sua funcionalidade atrav?s do ensaio de carbonata??o acelerada em um concreto convencional com 365kg/m? de cimento. / The carbon dioxide present in the atmosphere penetrates into the porous matrix of concrete internally and dissolves altering the chemical balance of the means. Due to this CO2 dissociation occurs a gradual lowering of the pH, which likely contributes to corrosion of the reinforcement. This research was based on the design and construction of chamber accelerated carbonation, automatically, in four steps, able to equip a laboratory for studying the durability of buildings, especially as regards research related to analysis of cementitious materials. The first step was the realization of the project itself, which is defined dimensions and materials to be used. The second step is intended construction of the carbonation chamber and submitted to the tightness test in order to ensure its sealing. The research continued in its third stage, with automation and microcontroller carbonation chamber through an algorithm developed and programmed, able to interact with the programming present on the sensors and valves commercially available. This stage also included the sensor calibration using internationally traceable standards and conducting pre-tests in reduced model before final installation in the carbonation chamber. The fourth step was to submit the test of accelerated carbonation, cylindrical samples of concrete with dimensions of 100mm x 200mm, inside the accelerated carbonation chamber, according to the standards of the National Laboratory of Civil Engineering - LNEC E-391 (1993) and specification FINAL DRAFT FprCEN / TS 12390-12, the European Committee of Standardization November 2010. The samples were subjected to accelerated carbonation test at 7, 14, 28, 42 and 56 days of exposure and obtained respectively mean depths carbonation 0,00mm, 1,62mm, 2.65mm, 3,35mm and 3,72mm. Finally, the study met its goals with project execution and construction of accelerated carbonation chamber in the laboratory and had their assessed efficiency through calibration of its evaluators devices CO2 and its tightness, and secured its functionality by test accelerated carbonation in a conventional concrete with 365kg / m? cement CP V ARI and factor a / c 0.50.
|
203 |
[en] APPLYING GENETIC ALGORITHMS TO THE PRODUCTION SCHEDULING OF A PETROLEUM / [es] PROGRAMACIÓN AUTOMÁTICA DE LA PRODUCCIÓN EN REFINERÍAS DE PETRÓLEO UTILIZANDO ALGORITMOS GENÉTICOS / [pt] PROGRAMAÇÃO AUTOMÁTICA DA PRODUÇÃO EM REFINARIAS DE PETRÓLEO UTILIZANDO ALGORITMOS GENÉTICOSMAYRON RODRIGUES DE ALMEIDA 19 July 2001 (has links)
[pt] O objetivo desta dissertação é desenvolver um método de
solução baseado em Algoritmos Genéticos (GAs) aliado a um
Sistema Baseado em Regras para encontrar e otimizar as
soluções geradas para o problema de programação da produção
de Óleos Combustíveis e Asfalto na REVAP (Refinaria do Vale
do Paraíba). A refinaria é uma planta multiproduto, com
dois estágios de máquinas em série - um misturador e um
conjunto de tanques, com restrição de recursos e operando
em regime contínuo. Foram desenvolvidos neste trabalho dois
modelos baseados em algoritmos genéticos que são utilizados
para encontrar a seqüência e os tamanhos dos lotes de
produção dos produtos finais. O primeiro modelo proposto
utiliza uma representação direta da programação da produção
em que o horizonte de programação é dividido em intervalos
discretos de um hora. O segundo modelo proposto utiliza uma
representação indireta que é decodificada para formar a
programação da produção. O Sistema Baseado em Regras é
utilizado na escolha dos tanques que recebem a produção e os
tanques que atendem à demanda dos diversos centros
consumidores existentes. Um novo operador de mutação -
Mutação por Vizinhança - foi proposto para minimizar o
número de trocas operacionais na produção. Uma técnica para
agregação de múltiplos objetivos, baseado no Método de
Minimização de Energia, também foi incorporado aos
Algoritmos Genéticos. Os resultados obtidos confirmam que
os Algoritmos Genéticos propostos, associados com o Método
de Minimização de Energia e a Mutação por Vizinhança, são
capazes de resolver o problema de programação da produção,
otimizando os objetivos operacionais da refinaria. / [en] The purpose of this dissertation is to develop a method,
based on Genetics Algorithms and Rule Base Systems, to
optimize the production scheduling of fuel oil and asphalt
area in a petroleum refinery. The refinery is a multi-
product plant, with two machine stages - one mixer and a
set of tanks - with no setup time and with resource
constrains in continuous operation. Two genetic algorithms
models were developed to establish the sequence and the lot-
size of all production shares. The first model proposed has
a direct representation of the production scheduling which
the time interval of scheduling is shared in one hour
discrete intervals. The second model proposed has a indirect
representation that need to be decoded in order to make the
real production scheduling. The Rule Base Systems were
developed to choice the tanks that receive the production
and the tanks that provide the demand of the several
consumer centers. A special mutation operator -
Neighborhood Mutation - was proposed to minimize the number
of changes in the production. A Multi-objective Fitness
Evaluation technique, based on a Energy Minimization
Method, was also incorporated to the Genetic Algorithm
models. The results obtained confirm that the proposed
Genetic Algorithm models, associated with the Multi-
objective Energy Minimization Method and the Neighborhood
Mutation, are able to solve the scheduling problem,
optimizing the refinery operational objectives. / [es] El objetivo de esta disertación es desarrollar un método de
solución utilizando Algoritmos Genéticos (GAs) aliado a un
Sistema Basado en Reglas para encontrar y optimizar las
soluciones generadas para el problema de programación de la
producción de Aceites Combustibles y Asfalto en la REVAP
(Refinería del Valle de Paraíba). La refinería es una
planta multiproducto, con dos estados de máquinas en serie -
un mezclador y un conjunto de tanques, con restricción de
recursos y operando en régimen contínuo. En este trabajo se
desarrollaron dos modelos basados en algoritmos genéticos
que son utilizados para encontrar la secuencia y los
tamaños de los lotes de producción de los productos
finales. El primer modelo propuesto utiliza una
representación directa de la programación de la producción
en la cuál el horizonte de programación se divide en
intervalos discretos de un hora. El segundo modelo, utiliza
una representación indirecta que es decodificada para
formar la programación de la producción. EL Sistema Basado
en Reglas se utiliza en la selección de los tanques que
reciben la producción y los tanques que atienden a la
demanda de los diversos centros consumidores. Un nuevo
operador de mutación - Mutación por Vecindad - fue
propuesto para minimizar el número de cambios operacionales
en la producción. le fue incorporado a los Algoritmos
Genéticos una técnica para la agregación de múltiples
objetivos, basado en el Método de Minimización de Energía.
Los resultados obtenidos confirman que los Algoritmos
Genéticos propuestos, asociados al Método de Minimización
de Energía y la Mutación por Vecindad, son capazes de
resolver el problema de programación de la producción,
optimizando los objetivos operacionales de la refinería.
|
204 |
Simula??o em n?vel de gene e de indiv?duo aplicada ao melhoramento animal / Simulation of individual and gene level applied to animal breedingFarah, Michel Marques 15 July 2010 (has links)
Submitted by Rodrigo Martins Cruz (rodrigo.cruz@ufvjm.edu.br) on 2015-12-17T16:32:54Z
No. of bitstreams: 2
michel_marques_farah.pdf: 437133 bytes, checksum: efc5c1b8937d6edbcc7aaf0f1481a293 (MD5)
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Approved for entry into archive by Rodrigo Martins Cruz (rodrigo.cruz@ufvjm.edu.br) on 2015-12-17T16:33:17Z (GMT) No. of bitstreams: 2
michel_marques_farah.pdf: 437133 bytes, checksum: efc5c1b8937d6edbcc7aaf0f1481a293 (MD5)
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Made available in DSpace on 2015-12-17T16:33:19Z (GMT). No. of bitstreams: 2
michel_marques_farah.pdf: 437133 bytes, checksum: efc5c1b8937d6edbcc7aaf0f1481a293 (MD5)
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5)
Previous issue date: 2010 / Coordena??o de Aperfei?oamento de Pessoal de N?vel Superior (CAPES) / A simula??o de dados apresenta diversas vantagens, como proporcionar a obten??o de respostas ? sele??o e diminuir o tempo necess?rio para a avalia??o das metodologias estudadas no melhoramento gen?tico animal. Por?m, os trabalhos que utilizam simula??o empregam v?rios termos como simula??o estoc?stica, simula??o determin?stica, simula??o de Monte Carlo, simula??o em n?vel de gene e simula??o em n?vel de indiv?duo e, muitas vezes, estes termos s?o utilizados de maneiras diferentes ou em outras condi??es, causando uma diverg?ncia nos termos utilizados. Assim, os objetivos deste trabalho foram agrupar, definir e diferenciar os termos t?cnicos utilizados nos trabalhos de simula??o em melhoramento gen?tico animal e comparar e definir as propriedades dos procedimentos de simula??o em n?vel de indiv?duo e em n?vel de gene. Foram desenvolvidos tr?s cen?rios de simula??o, em n?vel de indiv?duo, em n?vel de gene com e sem marcador utilizando o software LZ5. Foram simuladas tr?s popula??es de su?nos para cada cen?rio e com diferentes herdabilidades (0,12, 0,27 e 0,47). A popula??o-base foi constitu?da de 1500 animais, sendo 750 machos e 750 f?meas e para as duas simula??es em n?vel de gene foi considerado um genoma de 2800 cM e 18 cromossomos de tamanhos aleat?rios, as caracter?sticas foram governadas por 500 locos polig?nicos dial?licos, com freq??ncias al?licas iguais e taxa de recombina??o de 0,01. Para a simula??o em n?vel de gene com marcadores, ainda foram distribu?dos marcadores distanciados igualmente a 50 cM e distribu?dos aleatoriamente 5 QTLs por todo o genoma. Os valores amostrados apresentaram bem semelhantes para os tr?s tipos de simula??o, apresentando um aumento das vari?ncias aditiva e fenot?pica e da herdabilidade nas primeiras gera??es e depois decrescendo ao longo das gera??es. J? para a m?dia fenot?pica, houve um ganho gen?tico por gera??o, indicando que todos os m?todos utilizados s?o eficientes para a obten??o de dados simulados. Assim, a vantagem da simula??o em n?vel de gene ? que ? poss?vel simular marcadores moleculares e QTLs, enquanto a simula??o em n?vel de indiv?duo ? muito eficiente para obten??o de dados como o valor gen?tico do indiv?duo e da m?dia fenot?pica da popula??o em um per?odo de tempo muito menor, pois demanda menos recursos computacionais e de algoritmos estruturados para desenvolver quando comparado com a simula??o em n?vel de gene. Portanto, define-se simula??o em n?vel de indiv?duo como uma metodologia de simula??o que consiste em gerar valores gen?ticos (G) a partir de uma distribui??o normal com m?dia e vari?ncia previamente definidas; enquanto para a simula??o em n?vel de gene a metodologia consiste em gerar os valores dos efeitos de cada loco polig?nico e seus QTLs, a partir de uma distribui??o normal com m?dia e vari?ncia previamente definidas para cada componente, e pela soma destes, obt?m-se o G de cada indiv?duo da popula??o. Para a gera??o do efeito residual (E) as duas metodologias de simula??o s?o feitas da mesma forma, gerando-se um efeito aleat?rio amostrado, tamb?m, de uma distribui??o normal e assim obt?m-se os valores fenot?picos (P) de cada indiv?duo pela soma destes dois componentes (G+E). / Disserta??o (Mestrado) ? Programa de P?s-Gradua??o em Zootecnia, Universidade Federal dos Vales do Jequitinhonha e Mucuri, 2010. / ABSTRACT
The simulation data has several advantages, such as providing the obtaining responses to selection and reduce the time required for evaluation methodologies studied in animal breeding. However, simulation studies employ various terms such as simulation stochastic, deterministic simulation, Monte Carlo simulation, simulation level of gene and simulation at the individual level and often these terms are used in different ways or in other conditions, causing a divergence in the terms used. Thus, the objectives were cluster, define and differentiate the technical terms used in the work of simulation in animal breeding and compare and define the properties procedures for simulation-level and individual-level gene. There had been developed three scenarios for simulation at the individual-level and level gene, with and without marker, using the software LZ5. There had been simulated three pig populations for each scenario, with different heritabilities (0.12, 0.27 and 0.47). The base population consisted of 1500 animals, 750 males and 750 females and for both simulations at the level of the gene was considered a genome of 2800 cM, and 18 chromosomes in random sizes, the characteristics were governed by 500 loci diallelic polygenic, with equal allele frequencies and recombination rate of 0.01. For the simulation Level with gene markers, were also distributed bookmarks equally spaced at 50 cM and five QTL distributed randomly across the genome. The sampled values were very similar for the three types of simulation, an increase of additive variance and phenotype and heritability in the first generations and then decreasing to over the generations. As for the average phenotype was a genetic per generation, indicating that all methods used are efficient for obtain simulated data. Thus, the advantage of gene-level simulation is that it can simulate molecular markers and QTLs, while the simulation at individual level is very efficient for obtaining data as the individual's genetic value and phenotypic average of the population over a period of much less time, since it requires less computational resources and algorithms structured to develop, when compared with the simulation-level gene. Therefore, it is defined as the individual level simulation a methodology simulation that generates breeding values (G) from a normal distribution with mean and variance as previously defined; and the gene level simulation is defined as a methodology that generates the values of effects of each locus and their polygenic QTLs from a normal distribution with mean and variance previously defined for each component, and the sum of these gives the G of each individual in the population. For the generation of residual effect (E) the two simulation methodologies are made in the same way, generating a random effects sampled also a normal distribution and so it was obtained the phenotypic values (P) of each individual by summing these two components (G+E).
|
205 |
Desenvolvimento de um modelo de incrustação e aplicação de algoritmo genético na programação de limpezas de tanques de resfriamento.SOUZA, Luciano Medeiros de. 13 September 2018 (has links)
Submitted by Maria Medeiros (maria.dilva1@ufcg.edu.br) on 2018-09-13T12:13:14Z
No. of bitstreams: 1
LUCIANO MEDEIROS DE SOUZA - TESE (PPGEP) 2008.pdf: 1622133 bytes, checksum: e718708aa81aa024dab3ad2700717546 (MD5) / Made available in DSpace on 2018-09-13T12:13:14Z (GMT). No. of bitstreams: 1
LUCIANO MEDEIROS DE SOUZA - TESE (PPGEP) 2008.pdf: 1622133 bytes, checksum: e718708aa81aa024dab3ad2700717546 (MD5)
Previous issue date: 2008-05-30 / Capes / No processo de produção de soda cáustica, umas das etapas é o resfriamento da solução de hidróxido de sódio. O resfriamento da solução de hidróxido de sódio é feito em uma série de tanques que utilizam água gelada e água de torre de resfriamento para reduzir a temperatura da solução até um valor especificado. Cada tanque é dotado de agitador e serpentina de resfriamento. A água usada para resfriamento escoa no interior das serpentinas em contracorrente. Nos primeiros tanques usa-se água da torre de resfriamento e nos últimos tanques água gelada. Um dos grandes problemas dos processos industriais é a incrustação formada nos equipamentos. No sistema de resfriamento de soda cáustica, incrustações se formam devido à cristalização de sais em torno da serpentina diminuindo o coeficiente global de transferência de calor. Um modelo assintótico em função do tempo para incrustações nos tanques foi ajustado para determinar o melhor momento da limpeza do tanque. Otimizar a limpeza dos tanques em relação ao período de tempo e a escolha do tanque é e minimizar o número de limpezas periódicas são os objetivos deste trabalho. A função objetivo é calculada pelo programa baseado num modelo para a simulação deste sistema de resfriamento com modelo de incrustação assintótica desenvolvido anteriormente para este projeto e integrado a outros subprogramas desenvolvidos em MATLAB que utilizam os algoritmos genéticos para escolherem as melhores soluções para o sistema. A partir dos algoritmos genéticos determinaram-se alguns ótimos locais analisando os valores da temperatura da solução no último tanque e o número de limpezas por dia, assim como efeitos na carga térmica e na diferença de temperatura entre a água de resfriamento e a solução. Com o uso dos algoritmos genéticos está sendo possível encontrar padrões ótimos de limpeza para os tanques. / In the process of caustic soda production, one of the stages is the cooling of the sodium
hydroxide solution. The cooling of the sodium hydroxide solution is made in a series of tanks that use frozen water and water of cooling tower to reduce the temperature of the solution until the specified value. Each tank is endowed with agitator and coil of cooling. The cooling water flows in the interior of the coils in countercurrent. The water of cooling tower is used in the first tanks, where as the frozen in the last tanks. One of the great problems of the industrial processes is the fouling formed in the equipment. In the system of caustic soda water cooling of the BRASKEM, fouling if they form due to crystallization of leave around the coil diminishing the global coefficient transference heat. An asymptotic model in function of the time for fouling in the tanks it was adjusted to determine optimum moment where the tank must be clean. To optimize the cleaning of the tanks in relation to the period of time and the choice of the tank is and to minimize the number of periodic cleanings they are the objectives of this work. The objective function is calculated by the program based on a model for the simulation of this system of cooling with developed previously for this project and integrated model of asymptotic fouling function to other subprograms developed in MATLAB that use the genetic algorithms to choose the best solutions for the system. From the genetic algorithms some excellent places had been determined analyzing the values of the temperature of the solution in the last tank and the
number of cleaning per day, as well as effect in the thermal load and the difference of temperature enters the water of cooling and the solution. With the use of the genetic algorithms it is being possible to find optimum cleaning schedule for the tanks.
|
206 |
[en] SIMULATION AND DESIGN OF GAAS/ALGAAS QUANTUM WELL SOLAR CELLS AIDED BY GENETIC ALGORITHM / [pt] SIMULAÇÃO E PROJETO DE CÉLULAS SOLARES COM POÇOS QUÂNTICOS DE GAAS/ALGAAS AUXILIADO POR ALGORITMOS GENÉTICOSANDERSON PIRES SINGULANI 03 March 2010 (has links)
[pt] A energia é assunto estratégico para a grande maioria dos países e
indústrias no mundo. O consumo atual energético é de 138,32 TWh por ano
e é previsto um aumento de 44% até o ano de 2030 o que demonstra um
mercado em expansão. Porém, a sociedade atual exige soluções energéticas
que causem o menor impacto ambiental possível, colocando em dúvida o
uso das fontes de energia utilizadas atualmente. O uso da energia solar
é uma alternativa para auxiliar no atendimento da futura demanda de
energia. O seu principal entrave é o custo de produção de energia ser
superior as fontes de energia atuais, principalmente o petróleo. Contudo nos
últimos 10 anos foi verificado um crescimento exponencial na quantidade
de módulos fotovoltaicos instalados em todo mundo. Nesse trabalho é
realizado um estudo sobre célula solares com poços quânticos. O uso de
poços quânticos já foi apontado como ferramenta para aumentar a eficiência
de células fotovoltaicas. O objetivo é descrever uma metodologia baseada
em algoritmos genéticos para projeto e análise desse tipo de dispositivo e
estabelecer diretivas para se construir uma célula otimizada utilizando esta
tecnologia. Os resultados obtidos estão de acordo com dados experimentais,
demonstram a capacidade dos poços quânticos em aumentar a eficiência de
uma célula e fornecem uma ferramenta tecnológica que espera-se contribuir
para o desenvolvimento do país no setor energético. / [en] The energy is a strategical issue for the great majority of the countries
and industries in the world. The current world energy consumption is of
138,32 TWh per year and is foreseen an increase of 44% until the year
of 2030 which demonstrates a market in expansion. However, the society
demands energy solutions that cause as least ambient impact as possible,
putting in doubt the use of the current technologies of power plants. The
utilization of solar energy is an alternative to assist in the attendance of
the future demand of energy. Its main impediment is the superior cost of
energy production in comparison with the current power plants, mainly
the oil based ones. However in last the 10 years an exponential growth in
the amount of installed photovoltaics modules worldwide was verified. In
this work a study on solar cell with quantum wells is carried through. The
use of quantum wells already was pointed as tool to increase the efficiency
of photovoltaics cells. The objective is to describe a methodology based
on genetic algorithms for project and analysis of this type of device and
to establish directive to construct an optimized cell using this technology.
The results are in accordance with experimental data, that demonstrates
the capacity of the quantum wells in increasing the efficiency of a cell and
supply a technological tool that expects to contribute for the development
of the country in the energy sector.
|
207 |
[en] UNSUPERVISED CLASSIFICATION OF SATELLITE IMAGES / [pt] CLASSIFICAÇÃO NÃO-SUPERVISIONADA DE IMAGENS DE SENSORIAMENTO REMOTOALEXANDRE HENRIQUE LEAL NETO 12 June 2006 (has links)
[pt]
A classificação e segmentação não-supervisionadas de
imagens de sensoriamento remoto são examinadas neste
trabalho. A classificação é realizada tomando-se como base
o critério de Bayes, que busca minimizar o valor esperado
do erro de classificação. Os algoritmos desenvolvidos
foram propostos pressupondo-se que a estrutura das classes
presentes na imagem podem ser bem modeladas por vetores
aleatórios guassianos. Os classificadores convencionais,
que só levam em conta a informação dos pixels de forma
isolada, forma tratados sob a ótica da quantização
vetorial. Em particular, foi proposto um algoritmo de
classificação com base na quantização vetorial com
restrição de entropia. O desempenho das técnicas de
classificação é analisado obsevando-se a discrepância
entre classificações, comparando-se as imagens
classificadas com imagens referencia e classificando-se
imagens sintéticas. A taxa de acerto, entre 80% e 95%.
Este bom desempenho dos classificadores é limitado pelo
fato de, em suas estruturas, levarem em conta a informação
dos pixels de forma isolada. Buscamos, através da
classificação de segmentos, incorporar informações de
contexto em nossos classificadores. A classificação de
segmentos levou a taxas de erros inferiores àquelas
alcançadas por classificadores baseados em pixels
isolados. Um algoritmo de segmentação, que incorpora ao
modelo de classificação por pixels a influencia de sua
vizinhança através de uma abordagem markoviana, é
apresentado. / [en] Unsupervised classification and segmentation of satellite
images are examined in this work. The classification is
based on Bayes` criterion, which tries to minimize the
expected value of the classification error. The algorthms
developed were proposed postulating that the classes in
the image are well modeled by gaussian random vectors.
Conventional classifiers, which take into account only
pixelwise information, were treated as vector quantizers.
Specifically, it was proposed a classification algorithm
based on entropy constrained vector. The behaviour of the
classifiers is examined observing the discrepancy between
classifications, comparing classified images with
reference-images and classifyng sinthetic images. The
percentage of pixels whitch are assigned to the same class
as in the reference-images ranged from 80,0% to 95,0%.
This good behaviour of the classidiers is limited by the
fact that, in theirs structures, are taken into account
only isolated pixel information. We have sought, by
classifying segments, to introduce contextual information
into the classifiers structure. The segments classidiers.
A segmentation algorithm, which introduces contextual
information into pixelwise classifier by a markovian
approach, is presented.
|
208 |
[en] SUB-BAND IMAGE CODING / [pt] CODIFICAÇÃO DE IMAGENS POR DECOMPOSIÇÃO EM SUB-BANDASEDMAR DA COSTA VASCONCELLOS 05 July 2006 (has links)
[pt] Este trabalho aborda o problema da compressão de imagens
explorando a técnica de codificação por sub-bandas(SBB).
Como estrutura básica, usada na primeira parte do
trabalho, tem-se a divisão da imagem em 16 sub-bandas
buscando replicar os resultados de woods [1]. As
componentes das 16 SBB são quantizadas e codificadas, e
bits são alocados às SBB usando como critério a
minimização do erro médio quadrático. Os quantizadores são
projetados segundo uma distribuição Gaussiana Generalizada.
Neste processo de codificação, a sub-banda de mais baixa
freqüência é codificada com DPCM, enquanto as demais SBB
são codificadas por PCM.
Como inovação, é proposto o uso do algoritmo de Lempel-Ziv
na codificação sem perdas (compactação) das sub-bandas
quantizadas.
Na compactação são empregados os algoritmos de Huffman e
LZW (modificação do LZA). Os resultados das simulações são
apresentados em termos da taxa (bits/pixel) versus relação
sinal ruído de pico e em termos de analise subjetiva das
imagens reconstruídas. Os resultados obtidos indicam um
desempenho de compressão superior quanto o algoritmo de
Huffman é usado, comparado com o algoritmo LZW. A melhoria
de desempenho, na técnica de decomposição em sub-bandas,
observada com o algoritmo de Huffman foi superior (2dB
acima). Todavia, tendo em vista as vantagens da
universalidade do algoritmo de Lempel-Ziv, deve-se
continuar a investigar o seu desempenho implementado de
forma diferente do explorado neste trabalho. / [en] This work focus on the problem of image compression, with
exploring the techniques of subband coding.
The basic structure, used in the sirst part of this tesis,
encompass the uniform decomposition of the image into 16
subbands. This procedure aims at reproducing the reults of
Woods [1]. The component of the 16 subbands are quatized
and coded and bits are optimally allocated among the
subbands to minimize the mean-squared error. The
quantizers desingned match the Generelized Gaussian
Distribuition, which model the subband components.
In the coding process, the lowest subband is DPCM coded
while the higher subbands are coded with PCM.
As an innovation, it is proposed the use of the algorithm
LZW for coding without error (compaction) the quantized
subbands.
In the compactation process, the Huffamn and LZW
algorithms are used. The simulation results are presented
in terms of rate (bits/pel) versus peak signal-to-noise
and subjective quality. The performance of the subband
decomposition tecnique obtained with the Huffamn´s
algorithm is about 2dB better than that obtained with the
LZW. The universality of the Lempel-Ziv algorithm is,
however, an advantage that leads us to think that further
investigation should still be pursued.
|
209 |
[en] DISCRETE WAVELET TRANFORM IN CONNECTION WITH THE LOSSY LEMPEL-ZIV CODE / [pt] COMPRESSÃO DE IMAGENS USANDO A TRANSFORMADA WAVELET DISCRETA ASSOCIADA AO CÓDIGO DE LEMPEL-ZIG COM PERDASSERGIO MARCONDES KNUST 19 July 2006 (has links)
[pt] Neste trabalho é investigada uma técnica de compressão de
imagens empregando a Transformada Wavelet Discreta em
conexão com o código de compressão mLLZ/d, que é baseado
no algoritmo de Lempel-zig com perdas.
Primeiramente é apresentada a teoria das wavelets e são
discutidos diversos códigos para compactação e compressão
baseados no algoritmo de Lempel-Ziv. Em seguida, são
apresentados os resultados de diversas simulações
realizadas com quatro imagens comumente empregadas neste
tipo de análise, de forma a avaliar o desempenho do método
em termos de qualidade objetiva e subjetiva. Finalmente,
os resultados foram analisados e comparados aos obtidos
com outras técnicas de compressão, publicadas em
dissertações de mestrado anteriores. / [en] In this work an image compression method employing the
Discrete Wavelet Tranform in connection with the Lossy
Lempel-Ziv code mLLZ/d is investigated.
At first, the wavelet theory as well as several lossy and
lossless codes based on the Lempel-ziv algorithm are
discussed. Afterwards, simulations are implemented using
four images, which are commonly used as a standard for
this type of analysis, in order to evaluate the
performance of the method in terms of both objective and
subjective quality. Finally, the results are analyzed and
compared to the ones obtained with other compression
techniques, already published in former thesis.
|
210 |
[en] PROBABILISTIC POWER FLOW: THEORY AND APPLICATION / [pt] FLUXO DE POTÊNCIA PROBABILÍSTICO: TEORIA E APLICAÇÃOVINICIUS LEAL ARIENTI 08 June 2006 (has links)
[pt] Um algoritmo de Fluxo de Potência Probabilístico (FPP)
permite avaliar a probabilidade de ocorrência de certos
eventos em um sistema de potência, baseado em seu
desempenho passado, na previsão das demandas e nas
disponibilidades das unidades geradoras e equipamentos de
transmissão. Tais eventos são sobrecargas,
sobre/subtensões e insuficiência de geração de potência
ativa/reativa. As probabilidades ou riscos associados a
tais eventos são medidas ou índices de adequação
relacionando cargas, equipamentos disponíveis e a política
operativa.
Pode-se dizer que a formulação de FPP mais
realista até hoje proposta possui duas restrições básicas.
A primeira é a dificuldade de se obter simultaneamente e
de forma eficiente, todos os índices de adequação. A
segunda está relacionada com a precisão do algoritmo para
as grandezas reativas, mesmo para níveis de incerteza não
muito elevados.
Neste trabalho, além de ser proposto um novo
algoritmo de solução que resolve as restrições
anteriormente citadas de forma bastante simples e eficaz,
são demonstradas diversas aplicações dos algoritmos de FPP
e também definidas metodologias de utilização desta
ferramenta em estudos de planejamento da operação e da
expansão, ressaltando-se ainda as similaridades com a
análise de confiabilidade global de sistemas de potência.
A aplicação dos métodos de FPP, obtendo
informações adicionais para complementar a abordagem
determinística convencional, tem demonstrado ser uma
ferramenta auxiliar bastente útil no processo de tomada de
decisão. As vantagens da inclusão deste algoritmo no rol
de técnicas imprescindíveis aos engenheiros vem
incentivando o uso desta abordagem de maneira mais ampla. / [en] A Probabilistic Power Flow Algorithm (PPF) allows the
practical evaluation of the probability of occurrence of
power system events, based on their historical
performance, load forecast and availability of generating
units and transmission equipment. Such events are
overlads, undervoltages, overvoltages and indufficiency of
active/reactive power generation. The probabilities or
risks associated to these events are adequacy measures, or
indices, linking loads, available equipment and
operational policies.
The practical PPF formulations available in literature
present two main drawbacks. The first one is related with
the computational difficulty in simultaneously obtaining
all basic adequacy indices, within an efficient
computational scheme. The second is related with the
accuracy of calculated reactive figures, even in the case
of modest uncertainty levels.
In this work, a new, simple and efficient PPF
algorithm, which alleviates the previous drawbacks, is
proposed. Several practical applications of the proposed
PPF algorithm are described as well as methodologies for
its use in operational and expansion planning. Also, the
similarities between PPF and composite reliability
evaluation algorithms are emphasized.
The application of PPF methods, providing
additional information to the conventional deterministic
approaches, has shown to be a very important auxiliary
tool in the decision making process, thus contributing for
the broad use of probabilistic methods.
|
Page generated in 0.0501 seconds