Spelling suggestions: "subject:"algoritmo A*"" "subject:"lgoritmo A*""
161 |
Métodos para obtenção da altura da camada limite planetária a partir de dados de LIDAR / Methods to obtain heigth of Planetary Boundary Layer by LIDAR dataGregori de Arruda Moreira 10 September 2013 (has links)
Esta dissertação aborda um estudo sobre algoritmos matemáticos (Método da Variância, Método das Imagens, Método do Gradiente (MG), WCT - Wavelet Covariance Transform), os quais possibilitam a obtenção da altura máxima da Camada Limite Planetária (CLP) a partir de dados fornecidos por um sistema lidar. Em um primeiro momento será descrita a CLP e as suas principais variáveis, assim como também os métodos juntamente com os seus pontos positivos e negativos. Em seguida serão abordadas duas situações de medida: a primeira consiste em um estudo de casos realizado na cidade de Vitória-ES, para o qual foram escolhidas três situações típicas (calmaria, presença de subcamadas de aerossóis e/ou camadas de nuvens e turbulência) em que os métodos foram: testados, comparados entre si, com a análise visual do perfil e o BRN (Bulk Richardsons Number); a segunda situação aborda uma medida feita na cidade de São Paulo-SP durante um período de 12 horas contínuas, sendo o grande diferencial deste experimento, o lançamento de radiossondas dentro de intervalos de 3 horas, isso aliado a utilização de modelagem WRF (Weather Research Forecasting) permitiu uma maior comparação e validação dos dados. A partir dos estudos de casos foi possível observar que com o aumento da complexidade do perfil apresentado pela atmosfera, há um decréscimo na qualidade dos resultados apresentados pelos métodos e um aumento no tempo de processamento, já que há necessidade de um maior refinamento nos parâmetros que serão utilizados. Nas situações de \"calmaria\"o perfil da atmosfera se mostra mais simplificado, o que facilita a escolha de qual método utilizar, sendo que com exceção da Variância, todos os outros métodos forneceram resultados satisfatórios. Para o caso de \"presença de subcamadas de aerossóis e/ou nuvens\"a qualidade dos resultados apresentados pelos métodos decai sendo exceção da Variânci, uma vez que esta passa a apresentar resultados mais próximos do esperado devido ao aumento na complexidade do sinal lidar. Na situação caracterizada como \"turbulência\", todos os métodos passam a apresentar maiores dificuldades para detectar corretamente a CLP, sendo que o WCT se mostra o mais robusto, porém exige uma complexa escolha de parâmetros, demandando um alto tempo de processamento. Na medida de 12 horas contínuas todos os métodos conseguem representar satisfatoriamente a ascensão e o decaimento da CLP, ficando as maiores divergências para o meio do dia, principalmente quando há dispersão dos aerossóis gerando atenuação no sinal, com isso os métodos mais sensíveis (MG e Método das Imagens) passam a apresentar várias oscilações, dificultando a detecção do topo da CLP. As análises realizadas permitiram observar as vantagens e desvantagens de cada método, assim como descobrir qual possui o uso mais indicado para cada cenário meteorológico, sendo o algoritmo WCT o mais robusto em todas as situações apresentadas. / This dissertation discusses a study about mathematical algorithms (Variance Method, Method of Images, Gradient Method, WCT - Wavelet Covariance Transform) that allow obtaining the maximum height of the Planetary Boundary Layer (PBL) from data provided by the lidar system. Initially it will be described the PBL and their main variables, as well as methods along with their strengths and weaknesses. After, two situations of measurements will be discussed: the first one consists of a case study conducted in the city of Vitória-ES, where were chosen three typical situations (\"calm\", \"sublayers of aerosols and/or layers of cloud cover\"and \"turbulence\") and the methods were compared among themselves and here after validated qualitatively by a visual verify and quantitatively by obtain of the Bulk Richardson Number (BRN) extracted from radiosounding data; the second situation deals with a measurement made in the city of São Paulo - SP for a period of 12 continuous hours, and the great advantage of this experimen, launching radiosondes within 3 hour intervals, the use of this combined with WRF ( Weather Research Forecasting) model allowed a most accurate comparison and validation. Based on case studies it was observed with the increased of complexity of the profile presented by the atmosphere, there is a decrease in the quality of the results provided by the methods and an increase in processing time being necessary greater refinement of the parameters that are used. In situations of \"calm\"the profile of the atmosphere appears more simplified, which facilitates the choice of which method to use, and with exception of Variance, all other methods provided satisfactory results. For the situation of \"presence of sublayers of aerosols and/or clouds\"the quality of the results presented by the methods decays, with the exception of Variance, once this begins to show results closer than expected due to the increase in the complexity of the signal handling. In situations characterized as \"turbulence\", all methods have more difficulties to correctly detect the PBL, and the WCT shown the most robust than others, but requires a complex choice of parameters and a high processing time. The measurement of 12 hours continuous all methods can satisfactorily represent the rise and decay of PBL, the largest differences being for the middle of the day, especially when there is dispersion of aerosol generating attenuation in the signal, thus the most sensitive methods (Gradient Method and Method of Images) present several variations, making it difficult to detect the top of the PBL. The analyzes allowed to observe the advantages and disadvantages of each method, as well as find out which has the most appropriate use for each meteorological scenario, being the WCT the most robust algorithm in all situations presented.
|
162 |
Um estudo sobre o método da mistura de gaussianas para formação de grupos de dados.Ernée Kozyreff Filho 17 July 2009 (has links)
O presente texto discorre sobre o método da mistura de gaussianas aplicado à formação de agrupamentos (clusters) de observações a partir de um conjunto maior de dados. Trata-se de um problema sem solução analítica e, assim, utiliza-se o algoritmo EM (Expectation Maximization) para encontrar soluções por meio de dois procedimentos: inicializações aleatórias e pré-estimativas via métodos hierárquicos de formação de clusters. Conclui-se que a segunda opção é robusta quando se utiliza o método de Ward, enquanto que a primeira também propicia bons resultados, mas que são raros dentre muitas soluções ruins ou pontos de singularidade. Apresenta-se também um exemplo dos métodos estudados com dados reais de empresas brasileiras para ilustrar e complementar o trabalho.
|
163 |
Detecção e diagnóstico de falhas empregando técnicas de classificação de padrões com seleção de atributos.Anderson da Silva Soares 15 December 2010 (has links)
Neste trabalho é proposta uma abordagem para detecção e diagnóstico de falhas empregando técnicas de seleção de atributos e classificação de padrões. Tal abordagem faz uso do Algoritmo das Projeções Sucessivas (APS) para seleção de atributos a serem usados em um classificador de Análise Discriminante Linear (ADL). A aplicação do APS-ADL é proposta em duas etapas: pré-seleção de sensores e seleção de atributos com atrasos de tempo. São elaboradas ainda duas modificações na formulação original do algoritmo. A primeira faz uso da informação discriminatória univariada para evitar que atributos com alto poder de discriminação sejam descartados e a segunda propõe o uso de um teste de hipótese para simplificação do classificador através da eliminação de atributos. Adicionalmente, propõe-se um aprimoramento computacional para redução da complexidade do APS-ADL. Para o problema de detecção é proposto o uso de uma etapa prévia de agrupamento de padrões para identificar tipos de falhas similares de modo a reduzir o número de classificadores a serem empregados. O estudo de caso envolve o uso do modelo Tennessee Eastman Process, que é amplamente usado como benchmark na área de detecção e diagnóstico de falhas. Para fins de comparação, é empregado um algoritmo genético (AG) para seleção de atributos, bem como duas técnicas de classificação que fazem uso de todos os atributos disponíveis, a saber os métodos de K-vizinhos mais próximos (K-Nearest Neighbors, KNN) e mínimos-quadrados parciais (Partial Least Squares, PLS). Adicionalmente, investiga-se o uso dos atributos selecionados pelo APS-ADL para fins de classificação por Análise Discriminante Quadrática (ADQ). Os resultados mostram que (i) o uso de atrasos de tempo permite uma melhor discriminação entre as classes consideradas, (ii) a etapa preliminar de agrupamento de falhas simplifica o problema de detecção, (iii) a proposta de uso de informação univariada no APS-ADL melhora a taxa de acerto resultante, (iv) a pré-seleção de sensores facilita a seleção de atributos sem comprometer os resultados, (v) a proposta de eliminação de atributos no APS-ADL melhora a parcimônia dos classificadores sem alteração significativa de desempenho e (vi) dentre as técnicas consideradas, o APS-ADL e o APS-ADQ apresentam melhor acurácia tanto na detecção quanto no diagnóstico de falhas.
|
164 |
Finite mixture of regression models / Mistura finita dos modelos de regressãoSánchez, Luis Enrique Benites 06 April 2018 (has links)
This dissertation consists of three articles, proposing extensions of finite mixtures in regression models. Here we consider a flexible class of both univariate and multivariate distributions, which allow adequate modeling of asymmetric data that have multimodality, heavy tails and outlying observations. This class has special cases such as skew-normal, skew-t, skew-slash and skew normal contaminated distributions, as well as symmetric cases. Initially, a model is proposed based on the assumption that the errors follow a finite mixture of scale mixture of skew-normal (FM-SMSN) distribution rather than the conventional normal distribution. Next, we have a censored regression model where we consider that the error follows a finite mixture of scale mixture of normal (SMN) distribution. Next, we propose a censored regression model where we consider that the error follows a finite mixture of scale mixture of normal (SMN) distribution. Finally, we consider a finite mixture of multivariate regression where the error has a multivariate SMSN distribution. For all proposed models, two R packages were developed, which are reported in the appendix. / Esta tese composta por três artigos, visa propor extensões das misturas finitas nos modelos de regressão. Aqui vamos considerar uma classe flexível de distribuições tanto univariada como multivariada, que permitem modelar adequadamente dados assimmétricos, que presentam multimodalidade, caldas pesadas e observações atípicas. Esta classe possui casos especiais tais como as distribuições skew-normal, skew-t, skew slash, skew normal contaminada, assim como os casos simétricos. Inicialmente, é proposto um modelo baseado na suposição de que os erros seguem uma mistura finita da distribuição mistura de escala skew-normal (SMSN) ao invés da convencional distribuição normal. Em seguida, temos um modelo de regressão censurado onde consideramos que o erro segue uma mistura finita da distribuição da mistura de escala normal (SMN). E por último, é considerada um mistura finita de regressão multivariada onde o erro tem uma distribuição SMSN multivariada. Para todos os modelos propostos foram desenvolvidos dois pacotes do software R, que estão exemplificados no apêndice.
|
165 |
Identificação de pessoas através de algoritmo genético aplicado em medidas das proporções áureas da face humana / Recognition of human faces through genetic algorithm applied in reasons áureasAlves, Walison Joel Barbera 24 September 2008 (has links)
Na emergente busca por sistemas automáticos que realizem o reconhecimento de faces humanas, pesquisadores têm agrupado diferentes técnicas para obterem resultados que possam ser cada vez mais robustos e ágeis. Essa preocupação não se restringe aos meios acadêmicos, também existe interesse legal comercial em utilizar sistemas que reconheçam faces humanas como por exemplo, que locais em que seja difícil a identificação de pessoas pelos seres humanos. Diante dessa constante preocupação, este trabalho teve como objetivo desenvolver um sistema de reconhecimento automático de faces, por intermédio de suas proporções, aplicando uma técnica inovadora, em que por meio de um algoritmo genético, que tem como entrada o número de segmentos áureos encontrados na face, é possível determinar as proporções existentes e, assim, encontrar a face desejada. Os resultados demonstram que a razão áurea, utilizada desde a antiguidade por pintores e escultores, está presente nas proporções das faces humanas e que fornece um meio de medida biométrica que permite a identificação de um indivíduo, mesmo com expressões faciais. / There has been an emerging pursuit of automatic systems that provide the recognition of human faces. Seeing that, scientists have gathered different techniques in order to obtain more and more positive and concrete results. This pursuit is not of academic concern only, but there is also legal and commercial interest in using systems that can recognize faces in places where it is difficult for humans to locate a person, that is when it is necessary to locate outlaws in crowded places. That being so, this work aims at developing a system for the automatic recognition of human faces using proportions and applying an innovative technique that implements a Genetic Algorithm. This algorithm uses the number of facial golden proportion sections as its input, so it is possible to determine the existing proportions and consequently, to locate the desired face no matter the person\'s facial expression. The results show that the golden ratio, which has been used since the earlier times by painters and sculptors, is present in human facial proportions and is a biometric measurement that enables to identify an individual even when facial expressions are worn.
|
166 |
[en] THE OPTIMIZATION OF PETROLEUM FIELD EXPLORATION ALTERNATIVES USING EVOLUTIONARY COMPUTATION / [pt] OTIMIZAÇÃO DE ALTERNATIVAS PARA DESENVOLVIMENTO DE CAMPO DE PETRÓLEO UTILIZANDO COMPUTAÇÃO EVOLUCIONÁRIALUCIANA FALETTI ALMEIDA 21 May 2003 (has links)
[pt] Esta dissertação investiga um sistema baseado em algoritmos
genéticos e algoritmos culturais, aplicado ao processo de
desenvolvimento de um campo de petróleo.
O desenvolvimento de um campo de petróleo consiste, neste
caso, da disposição de poços num reservatório petrolífero,
já conhecido e delimitado, que permita maximizar o Valor
Presente Líquido. Uma disposição de poços define a
quantidade e posição de poços produtores e injetores e do
tipo de poço (horizontalou vertical) a serem empregados no
processo de exploração.
O objetivo do trabalho é avaliar o desempenho de Algoritmos
Genéticos e Algoritmos Culturais como métodos de apoio à
decisão na otimização de alternativas de produção em
reservatórios petrolíferos.
Determinar a localização de novos poços de petróleo em um
reservatório é um problema complexo que depende de
propriedades do reservatório e critérios econômicos, entre
outros fatores. Para que um processo de otimização possa ser
aplicado nesse problema, é necessário definir uma função
objetivo a ser minimizada ou maximizada pelo processo. No
problema em questão, a função objetivo a ser maximizada é o
Valor Presente Líquido (VPL). Para se estabelecer o VPL,
subtrai-se os gastos com a exploração do valor
correspondente ao volume de petróleo estimado da reserva.
Devido à complexidade do perfil de produção de petróleo,
exige-se a utilização de simuladores de reservatório para
esta estimativa. Deste modo, um simulador de reservatórios
é parte integrante da função de avaliação.
O trabalho de pesquisa foi desenvolvido em quatro etapas:
um estudo sobre a área de exploração de petróleo; um estudo
dos modelos da inteligência computacional empregados nesta
área; a definição e implementação de um modelo genético e
cultural para o desenvolvimento de campo petrolífero e o
estudo de caso.
O estudo sobre a área de exploração de campo de petróleo
envolveu a teoria necessária para a construção da função
objetivo.
No estudo sobre as técnicas de inteligência computacional
definiu-se os conceitos principais sobre Algoritmo Genético
e Algoritmo Cultural empregados nesta dissertação.
A modelagem de um Algoritmo Genético e Cultural constitui
no emprego dos mesmos, para que dado um reservatório
petrolífero, o sistema tenha condições de reconhecê-lo e
desenvolvê-lo, ou seja, encontrar a configuração
(quantidade, localização e tipo de poços) que atinja um
maior Valor Presente Líquido.
Os resultados obtidos neste trabalho indicam a viabilidade
da utilização de Algoritmos Genéticos e Algoritmos
Culturais no desenvolvimento de campos de petróleo. / [en] This dissertation investigates a system based in genetic algorithms and cultural algorithms, applied to the
development process of a petroleum field. The development of a petroleum field consists in the placement of wells in an already known and delimited petroleum reservoir, which allows maximizing the Net Present Value. A placement of wells defines the quantity and position of the producing wells, the injecting wells,
and the wells type (horizontal or vertical) to be used in the exploration process. The objective of this work is to evaluate the performance of Genetic Algorithms and Cultural Algorithms as decision support methods on the optimization of production alternatives in petroleum reservoirs. Determining the new petroleum wells location in a reservoir is a complex problem that depends on the properties of the reservoir and on economic criteria, among other factors. In order to an optimization process to be applied to this problem, it s necessary to define a target function to be minimized or maximized by the process. In the given problem, the target function to be maximized is the Net Present Value (NPV). In order to establish the NPV, the exploration cost correspondent to the estimated reservoir petroleum volume is deducted. The complexity of
the petroleum s production profile implies on the use of reservoirs simulators for this estimation. In this way, a reservoir simulator is an integrant part of the evaluation function. The research work was developed in four phases: a study about the petroleum exploration field; a study about the applied computational intelligence models in this area; the definition and implementation of a genetic and cultural model for the development of petroliferous fields and the case study. The study about the petroleum exploration field involved all the necessary theory for the building of the target function. In the study about the computational intelligence techniques, the main concepts about the Genetic Algorithms and Cultural Algorithms applied in this dissertation were defined. The modeling of Genetic and Cultural Algorithms consisted in applying them so that, given a petroleum reservoir, the system is capable of evolve and find configurations (quantity, location and wells type) that achieve greater Net Present Values. The results obtained in this work, indicate that the use of Genetic Algorithms and Cultural Algorithms in the
development of petroleum fields is a promising alternative.
|
167 |
A utilização de algoritmos de aprendizado de máquina em problemas de classificação / The use of machine learning algorithms in classification problemsMaria Rita Sifuentes Batista 26 October 2018 (has links)
Os últimos anos foram marcados por um avanço expressivo da tecnologia, principalmente na área de computação. Estes avanços, quando somados à diversidade de produtos oferecidos por empresas de diferentes segmentos, e aos esforços destas em capturar e armazenar dados de seus clientes e de suas operações, ajudam a explicar a quantidade de informações que atualmente é produzida. As organizações, em geral, têm se mostrado eficientes em capturar, organizar e armazenar grandes quantidades de dados, mas nem todas os utilizam adequadamente, no sentido de transformá-los em conhecimentos úteis para suas atividades. Algoritmos de aprendizado de máquina são uma ferramenta computacional poderosa para aquisição de conhecimento a partir da experiência. A utilização desses algoritmos permite avanços e descobertas que conferem vantagem competitiva às empresas. A tarefa de aprendizado de máquina mais comum é o aprendizado supervisionado, cujo objetivo é aprender um modelo preditivo a partir de um conjunto de dados. Esse modelo deve ser capaz de generalizar o conhecimento adquirido para dados desconhecidos. Isso permite que o modelo tenha uma boa capacidade preditiva. Uma aplicação importante e bastante utilizada do aprendizado supervisionado são os problemas de classificação, comumente encontrados na indústria financeira. Um dos desafios dessa indústria é prever a capacidade de pagamento de seus clientes, classificando-os como bons ou maus pagadores. Neste trabalho, cinco algoritmos de aprendizado de máquina supervisionado foram investigados e aplicados à um problema real de classificação: regressão logística, classificadores bayesianos, k-vizinhos mais próximos, random forests e redes neurais. Como o desempenho desses algoritmos é afetado pelas variáveis utilizadas, técnicas de seleção de variáveis foram aplicadas ao conjunto de dados original. O uso dessas técnicas permite reduzir o tempo computacional, removendo informações redundantes e irrelevantes. Medidas de desempenho para classificação binária foram utilizadas para avaliar o desempenho preditivo dos modelos gerados pelos cinco algoritmos e compará-los. Como é cada vez mais importante ter modelos facilmente interpretáveis, foram também avaliadas a interpretabilidade e a complexidade dos modelos gerados. / The last few years were remarkable by relevant advances in technology, mainly related to computers. These advances, when added to the diversity of products offered by companies from different segments and their efforts in capturing and storing data from their customers and operations, helps to explain the amount of information that is currently being produced. Overall, the organizations have been efficient in capturing, organizing, and storing large amounts of data, but not all of them uses it adequately to make them useful knowledge for their activities. Learning algorithms are a powerful machine toll to acquire knowledge based on experience. The use of these algorithms allows advances and discoveries that brings a competitive advantage to the companies. The most common machine learning task is supervised learning, whose objective is to learn a predictive model from a set of data. This model should be able to generalize the acquired knowledge to a set of unknown data. This allows the model to have a good predictive capability. An important and widely used application of supervised learning are the classification problems, commonly seen in the financial industry. One of the challenges of this industry is to predict the payment capacity of its customers, rating them as good or bad payers. In this study, five supervised machine learning algorithms, logistic regression, Bayesian classifiers, k-neighbors, random forests and neural networks were investigated and applied to a real classification problem. Since the performance of these algorithms are affected by the variables used, variable selection techniques were applied to the original data set. The use of these techniques allows a computational reduction time by removing redundant and irrelevant information. Performance measures for binary classification were used to evaluate the predictive performance of the models generated by the five algorithms and to compare them. Since it is increasing the importance to have easily interpretable models, the interpretability and complexity of the models generated were also evaluated.
|
168 |
Utilizando a busca tabu na resolução do problema de roteamento de veículosSimas, Etiene Pozzobom Lazzeris 02 February 2007 (has links)
Made available in DSpace on 2015-03-05T13:59:42Z (GMT). No. of bitstreams: 0
Previous issue date: 2 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Este trabalho aborda o Problema de Roteamento de Veículos em que apenas a restrição da capacidade do veículo é considerada. O objetivo deste problema é atender a uma rede de clientes, através da criação de rotas de custo mínimo que respeitem a capacidade do veículo. Para gerar soluções para este problema uma aplicação será desenvolvida utilizando a metaheurística Busca Tabu. A Busca Tabu permite que estratégias de intensificação e diversificação sejam utilizadas para guiar a procura de boas soluções. Para esta aplicação dois tipos de movimentos geradores de vizinhança serão utilizados: a realocação de vértices e a troca de vértices entre rotas. Os resultados obtidos nesta aplicação serão comparados com resultados de heurísticas clássicas e com resultados publicados por outros autores que utilizam a Busca Tabu na abordagem do Problema de Roteamento de Veículos
|
169 |
Algoritmo genético na estimação dos parâmetros da produção de poli(3-hidroxibutirato) por Cupriavidus necator / Genetic algorithm in the parameters estimation of the poli(3-hidroxibutirate) production process by Cupriavidus necatorHinterholz, Camila Larissa 25 February 2015 (has links)
Submitted by Marilene Donadel (marilene.donadel@unioeste.br) on 2019-03-13T00:48:12Z
No. of bitstreams: 1
Camila_Hinterholz_2015.pdf: 2996844 bytes, checksum: f54562c9458e8a2460e3978c1be500c2 (MD5) / Made available in DSpace on 2019-03-13T00:48:12Z (GMT). No. of bitstreams: 1
Camila_Hinterholz_2015.pdf: 2996844 bytes, checksum: f54562c9458e8a2460e3978c1be500c2 (MD5)
Previous issue date: 2015-02-25 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / Biopolymers, especially Poly(3-hydroxybutyrate) (PHB), have been receiving big attention in order to minimize environmental damage caused by plastics from petrochemical industries. In this context, the aim of this paper was to formulate a mathematical model to describe the PHB production by Cupriavidus necator, from a detailed theoretical study. To this end, 6 models were evaluated, being 5 for cell growth and 1 for product formation, all from the literature. The ordinary differential equations system was solved numerically by Rosenbrock method. To the parameters estimation, an algorithm based on the Genetic Algorithms was developed and implemented in the software Maple®. To validate the models, experimental data at 30, 32,5, 35 and 37,5 °C were obtained from the literature. From the data analysis, it was observed that the best temperature, for both cell growth and product formation was 32,5 °C, and that the PHB production in partially associated with cell growth. To the parameters estimation, the ordinary differential equations system, obtained from the phenomenological modelling of non-structured and non-segregated models, was evaluated together with the models from the literature. The results for the objective function and correlation coefficient indicated that all the studied models adjusted well to the experimental data at all temperatures. Thus, some statistical tests were applied in order to better evaluate the models fitting, and the results indicated the Andrews’s (1968) model as the one that best represents the data from 32,5 °C, and Heinzle e Lafferty’s (1980) model for 35 °C. For the data at 30 and 37,5 °C there was no statistically valid models found. In conclusion, the statistical methodology applied for the models discrimination and fitting evaluation made it possible to say which model best represents data at each temperature. / Os biopolímeros, em especial o Poli(3-hidroxibutirato) (PHB), têm recebido grande atenção na tentativa de minimizar danos ambientais causados pelo acúmulo de plásticos de origem petroquímica. Neste âmbito, o objetivo deste trabalho foi formular um modelo matemático para o processo de produção do PHB por Cupriavidus necator, a partir de um estudo teórico detalhado. Para tanto, foram avalliados 5 modelos de crescimento celular e 1 modelo para a formação do produto, todos obtidos da literatura. O sistema de equações diferenciais ordinárias foi resolvido numericamente pelo método de Rosenbrock. Para a estimação dos parâmetros dos modelos foi desenvolvido um algoritmo baseado nos Algoritmos Genéticos, o qual foi implementado no software Maple®. Para a validação dos modelos, dados experimentais de ensaios a 30, 32,5, 35 e 37,5 °C foram obtidos da literatura. A partir da análise dos dados foi verificado que a melhor temperatura, tanto para o crescimento da biomassa quanto para a formação do produto, foi de 32,5 °C, e que a produção de PHB está parcialmente associada ao crescimento celular. Para a estimação dos parâmetros, o sistema de equações diferenciais ordinárias obtidas a partir da modelagem fenomenológica de modelos não estruturados e não seguregados foi avaliado juntamente com os modelos da literatura. Os resultados obtidos para a função objetivo e coeficiente de correlação indicaram que todos os modelos estudados se ajustaram bem aos dados experimentais em todas as temperaturas. Assim, para uma melhor avaliação dos ajustes foram aplicados alguns testes estatísticos, cujos resultados indicaram o modelo de Andrews (1968) como sendo o que melhor representa os dados à temperatura de 32,5 °C, e o modelo de Heinzle e Lafferty (1980) para os dados à 35 °C. Para as temperaturas de 30 e 37,5 °C não foi encontrado um modelo estatisticamente válido. Logo, a metodologia estatística aplicada para a discriminação de modelos e avaliação da qualidade dos ajustes tornou possível a identificação do modelo que melhor representa os dados em cada temperatura.
|
170 |
Otimização de um condicionador de ar do tipo split com vazão variável de refrigeranteBrochier, Felipe Osmar Berwanger 02 1900 (has links)
Submitted by Fabricia Fialho Reginato (fabriciar) on 2015-07-23T01:11:46Z
No. of bitstreams: 1
FelipeBrochier.pdf: 2248315 bytes, checksum: 51a12fbb2e530bf08f1847557932b381 (MD5) / Made available in DSpace on 2015-07-23T01:11:46Z (GMT). No. of bitstreams: 1
FelipeBrochier.pdf: 2248315 bytes, checksum: 51a12fbb2e530bf08f1847557932b381 (MD5)
Previous issue date: 2014-02 / Nenhuma / Este trabalho tem como objetivo otimizar o custo operacional dependente dos parâmetros de vazão de ar do condensador, número de aletas e de circuitos do condensador, frequência do compressor e parâmetros do dispositivo de expansão de um sistema de um condicionador de ar do tipo split hiwall unitário com vazão variável de refrigerante (VRV). Para a otimização foram consideradas as freqüências de ocorrência de quatro condições de temperatura do ambiente externo na cidade de Porto Alegre. O condicionador de ar abordado neste trabalho troca calor utilizando um ciclo de compressão de vapor de simples estágio, tendo como fluido de trabalho o refrigerante R-410A. O sistema completo, composto de um compressor, um condensador, um evaporador e tubo capilar, foi modelado analiticamente utilizando o software EES (Engineering Equation Solver) e ajustado de acordo com testes realizados em calorímetro. Para a otimização, um algoritmo genético foi programado no próprio EES. Após a otimização do custo operacional em função dos parâmetros físicos de projeto, o COP aumentou em até 12 % na condição de ar externo a 35 °C. A otimização em função dos parâmetros de controle mostrou aumento ainda mais significativo do COP do sistema. Também é feita uma comparação entre os valores de COP de um sistema de vazão constante de ar e refrigerante e um sistema com vazão variável de ar e refrigerante. / This work aims to optimize the operational cost of an air conditioning system with variable refrigerant flow (VRF). The cost is dependent of the following parameters: condenser air flow, number of condenser fins and circuits, compressor frequency and the expansion device. The optimization considered the frequencies of occurrence of four distinct ambient temperatures in the city of Porto Alegre. The air conditioner presented in this work exchange heat using a single stage vapor compression cycle, with the refrigerant R-410A as the working fluid. The complete system comprises a compressor, a condenser, an evaporator and a capillary tube and was analytically modeled using the EES (Engineering Equation Solver) software. The parameters were fitted according to results obtained in a calorimeter and for optimization, a genetic algorithm was programmed using the same software. After the optimization of the operational cost as a function of the project parameters, the COP was raised up to 12% in external ambient air at 35 °C. The optimization of the operational cost as a function of the control parameters showed even a more significant system COP raise. A comparison between the COP of a constant air and refrigerant flow system and a variable air and refrigerant flow system was also performed.
|
Page generated in 0.0468 seconds