• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 667
  • 45
  • 44
  • 44
  • 44
  • 35
  • 15
  • 9
  • 7
  • 7
  • 7
  • 1
  • 1
  • Tagged with
  • 689
  • 689
  • 269
  • 181
  • 149
  • 138
  • 129
  • 119
  • 99
  • 98
  • 92
  • 91
  • 91
  • 83
  • 75
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
661

Aperfeiçoamento do algoritmo algébrico sequencial para a identificação de variações abruptas de impedância acústica via otimização / Identification of rough impedance profile using an improved acoustic wave propagation algorithm

Filipe Otsuka Taminato 21 February 2014 (has links)
Fundação Carlos Chagas Filho de Amparo a Pesquisa do Estado do Rio de Janeiro / Neste trabalho são utilizados a técnica baseada na propagação de ondas acústicas e o método de otimização estocástica Luus-Jaakola (LJ) para solucionar o problema inverso relacionado à identificação de danos em barras. São apresentados o algoritmo algébrico sequencial (AAS) e o algoritmo algébrico sequencial aperfeiçoado (AASA) que modelam o problema direto de propagação de ondas acústicas em uma barra. O AASA consiste nas modificações introduzidas no AAS. O uso do AASA resolve com vantagens o problema de identificação de danos com variações abruptas de impedância. Neste trabalho são obtidos, usando-se o AAS-LJ e o AASA-LJ, os resultados de identificação de cinco cenários de danos. Três deles com perfil suave de impedância acústica generalizada e os outros dois abruptos. Além disso, com o objetivo de simular sinais reais de um experimento, foram introduzidos variados níveis de ruído. Os resultados alcançados mostram que o uso do AASA-LJ na resolução de problemas de identificação de danos em barras é bastante promissor, superando o AAS-LJ para perfis abruptos de impedância. / In this work the techniques based on the wave propagation approach and the Luus- Jaakola optimization method to solve the inverse problem of damage identification in bars are applied. The sequential algebraic algorithm (SAA) and the improved sequential algebraic algorithm (ISAA) that model the direct problem of acoustic wave propagation in bars are presented. The ISAA consists on modifications of the SAA. The use of the ISAA solves with advantages the problem of damage identification when the generalized acoustical impedance variations are abrupt. In this work the results of identification of five damage scenarios are obtained using the SAA and the ISAA. Three of them are smooth impedance profiles and the other two are rough ones. Moreover, to simulate signals obtained experimentally, different noise levels were introduced. It is shown that using the ISAA-LJ in solving problems of damage identification in bars is quite promising, furnishing better results than the SAA-LJ, specially when the impedance profiles are abrupt.
662

Otimização robusta multiobjetivo por análise de intervalo não probabilística : uma aplicação em conforto e segurança veicular sob dinâmica lateral e vertical acoplada

Drehmer, Luis Roberto Centeno January 2017 (has links)
Esta Tese propõe uma nova ferramenta para Otimização Robusta Multiobjetivo por Análise de Intervalo Não Probabilística (Non-probabilistic Interval Analysis for Multiobjective Robust Design Optimization ou NPIA-MORDO). A ferramenta desenvolvida visa à otimização dos parâmetros concentrados de suspensão em um modelo veicular completo, submetido a uma manobra direcional percorrendo diferentes perfis de pista, a fim de garantir maior conforto e segurança ao motorista. O modelo multicorpo possui 15 graus de liberdade (15-GDL), dentre os quais onze pertencem ao veículo e assento, e quatro, ao modelo biodinâmico do motorista. A função multiobjetivo é composta por objetivos conflitantes e as suas tolerâncias, como a raiz do valor quadrático médio (root mean square ou RMS) da aceleração lateral e da aceleração vertical do assento do motorista, desenvolvidas durante a manobra de dupla troca de faixa (Double Lane Change ou DLC). O curso da suspensão e a aderência dos pneus à pista são tratados como restrições do problema de otimização. As incertezas são quantificadas no comportamento do sistema pela análise de intervalo não probabilística, por intermédio do Método dos Níveis de Corte-α (α-Cut Levels) para o nível α zero (de maior dispersão), e realizada concomitantemente ao processo de otimização multiobjetivo. Essas incertezas são aplicáveis tanto nos parâmetros do problema quanto nas variáveis de projeto. Para fins de validação do modelo, desenvolvido em ambiente MATLAB®, a trajetória do centro de gravidade da carroceria durante a manobra é comparada com o software CARSIM®, assim como as forças laterais e verticais dos pneus. Os resultados obtidos são exibidos em diversos gráficos a partir da fronteira de Pareto entre os múltiplos objetivos do modelo avaliado Os indivíduos da fronteira de Pareto satisfazem as condições do problema, e a função multiobjetivo obtida pela agregação dos múltiplos objetivos resulta em uma diferença de 1,66% entre os indivíduos com o menor e o maior valor agregado obtido. A partir das variáveis de projeto do melhor indivíduo da fronteira, gráficos são gerados para cada grau de liberdade do modelo, ilustrando o histórico dos deslocamentos, velocidades e acelerações. Para esse caso, a aceleração RMS vertical no assento do motorista é de 1,041 m/s² e a sua tolerância é de 0,631 m/s². Já a aceleração RMS lateral no assento do motorista é de 1,908 m/s² e a sua tolerância é de 0,168 m/s². Os resultados obtidos pelo NPIA-MORDO confirmam que é possível agregar as incertezas dos parâmetros e das variáveis de projeto à medida que se realiza a otimização externa, evitando a necessidade de análises posteriores de propagação de incertezas. A análise de intervalo não probabilística empregada pela ferramenta é uma alternativa viável de medida de dispersão se comparada com o desvio padrão, por não utilizar uma função de distribuição de probabilidades prévia e por aproximar-se da realidade na indústria automotiva, onde as tolerâncias são preferencialmente utilizadas. / This thesis proposes the development of a new tool for Non-probabilistic Interval Analysis for Multi-objective Robust Design Optimization (NPIA-MORDO). The developed tool aims at optimizing the lumped parameters of suspension in a full vehicle model, subjected to a double-lane change (DLC) maneuver throughout different random road profiles, to ensure comfort and safety to the driver. The multi-body model has 15 degrees of freedom (15-DOF) where 11-DOF represents the vehicle and its seat and 4-DOF represents the driver's biodynamic model. A multi-objective function is composed by conflicted objectives and their tolerances, like the root mean square (RMS) lateral and vertical acceleration in the driver’s seat, both generated during the double-lane change maneuver. The suspension working space and the road holding capacity are used as constraints for the optimization problem. On the other hand, the uncertainties in the system are quantified using a non-probabilistic interval analysis with the α-Cut Levels Method for zero α-level (the most uncertainty one), performed concurrently in the multi-objective optimization process. These uncertainties are both applied to the system parameters and design variables to ensure the robustness in results. For purposes of validation in the model, developed in MATLAB®, the path of the car’s body center of gravity during the maneuver is compared with the commercial software CARSIM®, as well as the lateral and vertical forces from the tires. The results are showed in many graphics obtained from the Pareto front between the multiple conflicting objectives of the evaluated model. The obtained solutions from the Pareto Front satisfy the conditions of the evaluated problem, and the aggregated multi-objective function results in a difference of 1.66% for the worst to the best solution. From the design variables of the best solution choose from the Pareto front, graphics are created for each degree of freedom, showing the time histories for displacements, velocities and accelerations. In this particular case, the RMS vertical acceleration in the driver’s seat is 1.041 m/s² and its tolerance is 0.631 m/s², but the RMS lateral acceleration in the driver’s seat is 1.908 m/s² and its tolerance is 0.168 m/s². The overall results obtained from NPIA-MORDO assure that is possible take into account the uncertainties from the system parameters and design variables as the external optimization loop is performed, reducing the efforts in subsequent evaluations. The non-probabilistic interval analysis performed by the proposed tool is a feasible choice to evaluate the uncertainty if compared to the standard deviation, because there is no need of previous well-known based probability distribution and because it reaches the practical needs from the automotive industry, where the tolerances are preferable.
663

Medidas de risco e seleção de portfolios / Risk measures and portfolio selection

Magro, Rogerio Correa 15 February 2008 (has links)
Orientador: Roberto Andreani / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Computação Cientifica / Made available in DSpace on 2018-08-10T15:35:32Z (GMT). No. of bitstreams: 1 Magro_RogerioCorrea_M.pdf: 1309841 bytes, checksum: 3935050b45cf1bf5bbba46ac64603d72 (MD5) Previous issue date: 2008 / Resumo: Dado um capital C e n opções de investimento (ativos), o problema de seleção de portfolio consiste em aplicar C da melhor forma possivel para um determinado perfil de investidor. Visto que, em geral, os valores futuros destes ativos não são conhecidos, a questão fundamental a ser respondida e: Como mensurar a incerteza? No presente trabalho são apresentadas tres medidas de risco: O modelo de Markowitz, o Value-at-Risk (VaR) e o Conditional Value-At-Risk (CVaR). Defendemos que, sob o ponto de vista teorico, o Valor em Risco (VaR) e a melhor dentre as tres medidas. O motivo de tal escolha deve-se ao fato de que, para o VaR, podemos controlar a influencia que os cenários catastroficos possuem sobre nossas decisões. Em contrapartida, o processo computacional envolvido na escolha de um portfolio ótimo sob a metodologia VaR apresenta-se notadamente mais custoso do que aqueles envolvidos nos calculos das demais medidas consideradas. Dessa forma, nosso objetivo e tentar explorar essa vantagem computacional do Modelo de Markowitz e do CVaR no sentido de tentar aproximar suas decisões aquelas apontadas pela medida eleita. Para tal, consideraremos soluções VaR em seu sentido original (utilizando apenas o parametro de confiabilidade ao buscar portfolios otimos) e soluções com controle de perda (impondo uma cota superior para a perda esperada) / Abstract: Given a capital C and n investment options (assets), the problem of portfolio selection consists of applying C in the best possible way for a certain investor profile. Because, in general, the future values of these assets are unknown, the fundamental question to be answered is: How to measure the uncertainty? In the present work three risk measures are presented: The Markowitz¿s model, the Value-at-Risk (VaR) and the Conditional Value-at-Risk (CVaR). We defended that, under the theoretical point of view, the Value in Risk (VaR) is the best amongst the three measures. The reason of such a choice is due to the fact that, for VaR, we can control the influence that the catastrophic sceneries possess about our decisions. In the other hand, the computational process involved in the choice of a optimal portfolio under the VaR methodology comes notedly more expensive than those involved in the calculations of the other considered measures. In that way, our objective is to try to explore that computational advantage of the Markowitz¿s Model and of CVaR in the sense of trying to approach its decisions the those pointed by the elect measure. For such, we will consider VaR solutions in its original sense (just using the confidence level parameter when looking for optimal portfolios) and solutions with loss control (imposing a superior quota for the expected loss) / Mestrado / Otimização / Mestre em Matemática Aplicada
664

Medidas de risco em otimização de portfolios / Risk measures in portfolio optimization

Bueno, Luís Felipe Cesar da Rocha, 1983- 25 February 2008 (has links)
Orientador: Jose Mario Martinez Perez / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Computação Cientifica / Made available in DSpace on 2018-08-10T15:09:35Z (GMT). No. of bitstreams: 1 Bueno_LuisFelipeCesardaRocha_M.pdf: 1111693 bytes, checksum: 531a933822f5dcf9cacad7dea6be5f53 (MD5) Previous issue date: 2008 / Resumo: Nesta dissertacao fazemos uma exposicao sobre alguns modelos matematicos com aplicacoes em economia. Dentre os modelos estudados destacamos a versao discreta das populares medidas de risco VaR (Value at Risk ) e C-VaR (Conditional Value at Risk ). Discutimos algumas propriedades de tais medidas, e, principalmente, expomos sobre algumas ideias para otimiza-las sob uma formulação do tipo OVO (Order Value Optimization) e propomos uma nova formulação para o problema de minimizar a VaR / Abstract: In this dissertation we make a presentation on some mathematical models with applications in economics. Among the studied models we highlight a discrete version of the popular risk measures VaR (Value at Risk) and C-VaR (Conditional Value at Risk). We discuss about some properties of such measures, and, above all, expose on some ideas for optimizing the VaR and CVaR under a OVO (Order Value Optimization) formulation and propose a new formulation to the problem of minimizing the VaR / Mestrado / Otimização / Mestre em Matemática Aplicada
665

Estudos sobre estabilidade robusta de sistemas lineares por meio de funções dependentes de parametros / On the robust stability of linear systems by means of parameter dependent functions

Leite, Valter Junior de Souza 23 August 2005 (has links)
Orientador: Pedro Luis Dias Peres / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-05T03:23:54Z (GMT). No. of bitstreams: 1 Leite_ValterJuniordeSouza_D.pdf: 4310851 bytes, checksum: bcd0414d19eb46e02496290857fdf9bc (MD5) Previous issue date: 2005 / Resumo: Este trabalho trata da aplica¸c¿ao de funcionais de Lyapunov e Lyapunov-Krasovskii dependentes de parâmetro a alguns problemas selecionados da área de controle robusto, a saber: D-estabilidade robusta de polítipo de matrizes, D-estabilidade robusta de politopos de polinômios matriciais, estabilidade robusta de sistemas neutrais com atrasos variantes no tempo e controle robusto H8 de sistemas discretos no tempo com atraso nos estados. É utilizada a representação politópica para as incertezas dos sistemas estudados. São obtidas formulações convexas, na forma de desigualdades matriciais lineares, suficientes para a solução dos problemas selecionados. Essas condições podem ser resolvidas numericamente de maneira eficiente por meio de algoritmos especializados baseados em pontos interiores. Os resultados obtidos são menos conservadores que os encontrados na literatura, baseados em geral na estabilidade quadrática, isto é, as matrizes dos funcionais são fixas e independentes da incerteza / Abstract: This work deals with the application of parameter dependent Lyapunov and Lyapunov-Krasovskii functionals to some selected problems of robust control: robust D-stability of polytopes of matrices, robust D-stability of polytopes of polynomial matrices, robust stability of uncertain neutral systems with timevarying delays and robust H8 control of uncertain discrete time delay systems. The polytopic representation is used to describe the uncertainties. Convex formulations are obtained, in terms of inear matrix inequalities, that are sufficient for the solution of the selected problems. Those conditions can be solved in a efficient way through specialized interior point algorithms. The obtained results are less conservative than those from the literature, in general based on quadratic stability, i.e., the matrices in the functionals are fixed and do not depend on the uncertainty / Doutorado / Automação / Doutor em Engenharia Elétrica
666

Modelagem de sistemas dinamicos não lineares utilizando sistemas fuzzy, algoritmos geneticos e funções de base ortonormal / Modeling of nonlinear dynamics systems using fuzzy systems, genetic algorithms and orthonormal basis functions

Medeiros, Anderson Vinicius de 23 January 2006 (has links)
Orientadores: Wagner Caradori do Amaral, Ricardo Jose Gabrielli Barreto Campello / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-06T08:36:39Z (GMT). No. of bitstreams: 1 Medeiros_AndersonViniciusde_M.pdf: 896535 bytes, checksum: 48d0d75d38fcbbd0f47f7c49823806f1 (MD5) Previous issue date: 2006 / Resumo: Esta dissertação apresenta uma metodologia para a geração e otimização de modelos fuzzy Takagi-Sugeno (TS) com Funções de Base Ortonormal (FBO) para sistemas dinâmicos não lineares utilizando um algoritmo genético. Funções de base ortonormal têm sido utilizadas por proporcionarem aos modelos propriedades como ausência de recursão da saída e possibilidade de se alcançar uma razoável capacidade de representação com poucos parâmetros. Modelos fuzzy TS agregam a essas propriedades as características de interpretabilidade e facilidade de representação do conhecimento. Enfim, os algoritmos genéticos se apresentam como um método bem estabelecido na literatura na tarefa de sintonia de parâmetros de modelos fuzzy TS. Diante disso, desenvolveu-se um algoritmo genético para a otimização de duas arquiteturas, o modelo fuzzy TS FBO e sua extensão, o modelo fuzzy TS FBO Generalizado. Foram analisados modelos locais lineares e não lineares nos conseqüentes das regras fuzzy, assim como a diferença entre a estimação local e a global (utilizando o estimador de mínimos quadrados) dos parâmetros desses modelos locais. No algoritmo genético, cada arquitetura contou com uma representação cromossômica específica. Elaborou-se para ambas uma função de fitness baseada no critério de Akaike. Em relação aos operadores de reprodução, no operador de crossover aritmético foi introduzida uma alteração para a manutenção da diversidade da população e no operador de mutação gaussiana adotou-se uma distribuição variável ao longo das gerações e diferenciada para cada gene. Introduziu-se ainda um método de simplificação de soluções através de medidas de similaridade para a primeira arquitetura citada. A metodologia foi avaliada na tarefa de modelagem de dois sistemas dinâmicos não lineares: um processo de polimerização e um levitador magnético / Abstract: This work introduces a methodology for the generation and optimization of Takagi-Sugeno (TS) fuzzy models with Orthonormal Basis Functions (OBF) for nonlinear dynamic systems based on a genetic algorithm. Orthonormal basis functions have been used because they provide models with properties like absence of output feedback and the possibility to reach a reasonable approximation capability with just a few parameters. TS fuzzy models aggregate to these properties the characteristics of interpretability and easiness to knowledge representation in a linguistic manner. Genetic algorithms appear as a well-established method for tuning parameters of TS fuzzy models. In this context, it was developed a genetic algorithm for the optimization of two architectures, the OBF TS fuzzy model and its extension, the Generalized OBF TS fuzzy model. Local linear and nonlinear models in the consequent of the fuzzy rules were analyzed, as well as the difference between local and global estimation (using least squares estimation) of the parameters of these local models. Each architecture had a specific chromosome representation in the genetic algorithm. It was developed a fitness function based on the Akaike information criterion. With respect to the genetic operators, the arithmetic crossover was modified in order to maintain the population diversity and the Gaussian mutation had its distribution varied along the generations and differentiated for each gene. Besides, it was used, in the first architecture presented, a method for simplifying the solutions by using similarity measures. The whole methodology was evaluated in modeling two nonlinear dynamic systems, a polymerization process and a magnetic levitator / Mestrado / Automação / Mestre em Engenharia Elétrica
667

Estudo de robustez em sistemas lineares por meio de relaxações em termos de desigualdades matriciais lineares / Robustness of linear systems by means of linear matrix inequalities relaxations

Oliveira, Ricardo Coração de Leão Fontoura de, 1978- 24 March 2006 (has links)
Orientador: Pedro Luis Dias Peres / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-06T10:51:24Z (GMT). No. of bitstreams: 1 Oliveira_RicardoCoracaodeLeaoFontourade_D.pdf: 881205 bytes, checksum: 053263f18afcf3085a0fc073e1594d2d (MD5) Previous issue date: 2006 / Resumo: A principal contribuição desta tese é a proposta de uma metodologia para solução de desigualdades matriciais lineares dependentes de parâmetros que freqüentemente aparecem em problemas de análise e controle robusto de sistema lineares com incertezas na forma politópica. O método consiste na parametrização das soluções em termos de polinômios homogêneos com coeficientes matriciais de grau arbitrário. Para a construção dessas soluções, um procedimento baseado em resoluções de problemas de otimiza¸c¿ao na forma de um número finito de desigualdades matriciais lineares 'e proposto, resultando em seqüências de relaxações que convergem para uma solução polinomial homogênea sempre que uma solução existe. Problemas de análise robusta e custo garantido s¿ao analisados em detalhes tanto para sistemas a tempo contínuo quanto para sistemas discretos no tempo. Vários exemplos numéricos são apresentados ilustrando a eficiência dos métodos propostos em termos da acurácia dos resultados e do esforço computacional quando comparados com outros métodos da literatura / Abstract: This thesis proposes, as main contribution, a new methodology to solve parameterdependent linear matrix inequalities which frequently appear in robust analysis and control problems of linear system with polytopic uncertainties. The proposed method relies on the parametrization of the solutions in terms of homogeneous polynomials of arbitrary degree with matrix valued coefficients. For constructing such solutions, a procedure based on optimization problems formulated in terms of a finite number of linear matrix inequalities is proposed, yielding sequences of relaxations which converge to a homogeneous polynomial solution whenever a solution exists. Problems of robust analysis and guaranteed costs are analyzed in details for continuous and discrete-time uncertain systems. Several numerical examples are presented illustrating the efficiency of the proposed methods in terms of accuracy and computational burden when compared to other methods from the literature / Doutorado / Automação / Doutor em Engenharia Elétrica
668

Processo de produção de bioemulsificante por Candida lipolytica : otimização, ampliação de escala e desenvolvimento de softsensor baseado em redes neurais artificiais / Biomulsifier production process by Candida lipolytica: optmization, scale-up and development of artificial neural network based softsensor

Albuquerque, Clarissa Daisy da Costa 22 February 2006 (has links)
Orientadores: Ana Maria Frattini Fileti, Galba Maria de Campos Takaki / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Quimica / Made available in DSpace on 2018-08-06T21:06:24Z (GMT). No. of bitstreams: 1 Albuquerque_ClarissaDaisydaCosta_D.pdf: 8871218 bytes, checksum: 55101c854d0f7293da9222f2518c7c15 (MD5) Previous issue date: 2006 / Resumo: Entre as técnicas convencionais usadas para desenvolvimento de software sensores, redes neurais artificiais têm mostrado ser um instrumento poderoso em modelagem e controle de bioprocessos complexos. O objetivo geral do presente trabalho é o desenvolvimento de software sensores baseados em redes neurais para estimação e previsão em tempo real da concentração de biomassa e da atividade de emulsificação no processo de produção de bioemulsificante por Cândida lipolytica. Bioemulsificantes normalmente apresentam vantagens como biodegradabilidade, baixa toxicidade e biocompatibilidade em relação a emulsifícantes sintetizados quimicamente. Adicionalmente, eles apresentam potencial para serem sintetizados a partir de substratos de baixo custo e são normalmente efetivos em condições extremas de pH, temperatura e salinidade. Consequentemente, bioemulsificantes têm sido aplicados com sucesso em áreas como biorremediaçào e recuperação de óleos. Contudo, os bioemulsificantes não são ainda largamente empregados por conta do seu alto custo de produção, resultante primeiramente da baixa produtividade dos microrganismos empregados e do alto custo de recuperação. Entretanto, neste trabalho foi mostrado que o desenvolvimento de softsensores neurais juntamente com otimização de componentes de meio de produção e ampliação de escala do processo podem contribuir para tomar a produção de bioemulsificante mais eficiente e econômica. O modelo quadrático obtido na otimização dos componentes do meio usando planejamento composto central com três fatores e metodologia de superfície de resposta mostrou significância estatística e capacidade preditiva. A máxima atividade de emulsificação para emulsões água-em-hexadecano obtida foi de 4,415 UAE e as concentrações ótimas de uréia, sulfato de amónio e fosfato monobásico de potássio foram respectivamente iguais a 0,544 % (w/v), 2,131 % (w/v) and 2,628 % (w/v). O rendimento do processo foi otimizado em 272%. A ampliação do processo da escala de frascos para a escala de fermentador de bancada foi realizada com sucesso e os efeitos e interações da temperatura e velocidade de agitação sobre a atividade de emulsificação do bioemulsificante produzido por Cândida lipolytica foram investigados. Os conjuntos de dados necessários para o treinamento, validação e teste dos softsensores foram obtidos de experimentos de produção de bioemulsificante realizados em biorreator de 5L, sob diferentes condições de temperatura e agitação. Os conjuntos de treinamento, validação e teste dos softsensores foram suavizados e expandidos usando interpolação com spline cúbica. Várias topologias de redes neurais com uma camada escondida foram testadas. As variáveis de entrada do processo incluíram pH, oxigênio dissolvido, densidade ótica e salinidade do liquido metabólico livre de células. O algoritmo de treinamento usado foi o algoritmo de retropropagação baseado em Levenberg-Marquardt em conjunção com regularização bayesiana. A raiz do erro quadrático médio (RMSE) e o coeficiente de determinação global (Rg2) foram usados entre outros índices para comparar o desempenho dos modelos. Os resultados mostram que softsensores neurais fornecem estimação e previsão on-line de concentração de biomassa e de atividade de emulsificação dentro de uma variação aceitável de 5% dos valores experimentais. Coeficientes de determinação global superiores a 0,90 indicam o excelente ajuste dos modelos de redes neurais com os valores experimentais testados, obtidos para concentração de biomassa e atividade de emulsificação / Abstract: Among conventional techniques used for development of 'software sensors', artificial neural networks have showed to be a powerful tool for modelling and control of complex bioprocess. The present work deals with the development of neural network based software sensors for real time estimation and prediction of biomass concentration and emulsification activity in a bioemulsifier production process by Candida lipolytics Bioemulsifiers commonly have the advantages of biodégradation, low toxicity, and biocompability over chemically synthesized emulsifiers. In addition, they can potentially be synthesized from cheap subtrates and are commonly effective at extremes of pH, temperature, and salinity. As a result, bioemulsifiers have found successful application in areas such as bioremediation and oil recovery. However, bioemulsifiers are not widely available because of their high production costs, which results primarily from low strain productivities and high recovery expenses. Therefore, in this work was showed that on-iine neural softsensor development jointly with media optimization and scale up of the process can make bioemulsifier production more efficient and more economical.The second order model obtained in the optimization of the medium components using three-factor central composite design and response surface methodology showed statistical significance and predictive ability. It was found that the maximum emulsification activity to water-in-hexadecane emulsion produced was 4,415 UEA and the optimum levels of urea, ammonium sulfate and potassium dihydrogen orthophosphate were, respectively, 0,544 % (w/v), 2,131 % (w/v) and 2,628 % (w/v). The emulsifier production process yield was optimized in 272 %. Successful scale-up from flasks to laboratory scale bioreactor was attained and the effects and interactions of the temperature and agitation rate on the emulsification activity of the bioemulsifier produced by Candida lipolytica were investigated. The data sets required to training, validation and test the neural software sensors were obtained from bioemulsifier production experiments carried out using com oil and sea water based media in a 5L bioreactor, under different temperature and agitation conditions. The training, validation and test sets were smoothed and expanded by interpolation using a piecewise smoothing cubic spline. Several neural network topologies with one hidden layer were tested. The input process variables included pH, dissolved oxygen, optic density and free cell metabolic liquid salinity. The training algorithm used was the Levenberg-Marquardt based backpropagation algorithm, in conjunction with Bayesian regularization. The root mean square error (RMSE) and the global determination coefficient (Rg2) among others index were used to compare model performances. The results showed that neural 'software sensors' supplied for biomass concentration and emulsification activity on-line estimation and prediction within an acceptable variation of 5% of the experimental values. Global coefficients of determination higher than 0.90 indicated excellent agreement of the neural network models with experimental test values, obtained for biomass concentration and emulsification activity / Doutorado / Sistemas de Processos Quimicos e Informatica / Doutor em Engenharia Química
669

Problemas de otimização : uma abordagem metodológica à luz do ensino médio

Evangelista, Simone Carla Silva Souza 13 April 2015 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / Optimization problems are interesting both from the theoretical and practical point of view. In this thesis we address this subject, presenting problems of analytical nature, algebraic, geometric and combinatorial that can be addressed in basic education. Our main goal is to show how much content already taught in school can be used in attractive way for students through real-world problems can be solved with the use of mathematics. Also tried to suggest some topics that, although not part of the standard curriculum can be implemented by integrating diverse part. / Problemas de otimização são interessantes tanto do ponto de vista teórico quanto prático. Nesta dissertação abordamos este assunto, apresentando problemas de natureza analítica, algébrica, geométrica e combinatória que podem ser abordados no ensino básico. Nosso principal objetivo é evidenciar como muito dos conteúdos já ensinados na escola podem ser utilizados de forma atrativa para os alunos, através de problemas do cotidiano que podem ser resolvidos com o uso da matemática. Também experimentamos sugerir alguns temas que, embora não façam parte do currículo padrão, podem ser implementados integrando a parte diversificada.
670

Uma abordagem orientada a sistemas para otimização de escalonamento de processos em grades computacionais / A system-centric approach for process scheduling optimization in computational grids

Paulo Henrique Ribeiro Gabriel 26 April 2013 (has links)
Um dos maiores desafios envolvidos no projeto de grades computacionais é o escalonamento de processos, o qual consiste no mapeamento de processos sobre os computadores disponíveis, a fim de reduzir o tempo de execução de aplicações ou maximizar a utilização de recursos. A literatura na área de Sistemas Distribuídos trata, geralmente, esses dois objetivos separadamente, dando origem às abordagens de escalonamento orientado a aplicações e orientado a recursos, respectivamente. Mais recentemente, uma nova abordagem, denominada escalonamento orientado a sistemas, tem recebido destaque, buscando otimizar ambos objetivos simultaneamente. Seguindo essas abordagens, algoritmos heurísticos e de aproximação têm sido propostos. Os heurísticos buscam por soluções de maneira eficiente sem, contudo, apresentar garantias quanto à qualidade das soluções obtidas. Em contrapartida, os algoritmos de aproximação provêm tais garantias, contudo são mais difíceis de serem projetados, o que justifica o fato de haver apenas versões simplificadas desses algoritmos para cenários de escalonamento de processos. A falta de algoritmos de aproximação adequados para abordar o problema de escalonamento de processos e a necessidade de soluções que atendam o escalonamento orientado a sistemas motivaram esta tese de doutorado que apresenta a proposta do Min Heap-based Scheduling Algorithm (MHSA), um algoritmo de aproximação para o problema de escalonamento de processos orientado a sistemas. Esse algoritmo foi baseado em um modelo de otimização matemática proposto no contexto desta tese. Esse modelo considera os comportamentos de processos e recursos a fim de quantificar a qualidade de soluções de escalonamento. O funcionamento do MHSA envolve a construção de uma árvore min-heap, em que os nós representam computadores e as chaves de ordenação correspondem aos tempos de fila, i.e., ocupação dos computadores. Apesar de esse algoritmo primordialmente reduzir o tempo de execução (ou makespan) de aplicações, essa estrutura em árvore permite que qualquer computador que ocupe o nó raiz receba cargas, o que favorece a ocupação de recursos e, portanto, sua orientação a sistemas. Esse algoritmo tem complexidade assintótica de pior caso igual a O(\'log IND. 2 m\'), em que m corresponde ao número de computadores do sistema. Sua razão de aproximação foi estudada para ambientes distribuídos heterogêneos com e sem a presença de comunicação entre processos, o que permite conhecer, a priori, o nível mínimo de qualidade alcançado por suas soluções. Experimentos foram conduzidos para avaliar o algoritmo proposto e compará-lo a outras propostas. Os resultados confirmam que o MHSA reduz o tempo dispendido na obtenção de boas soluções de escalonamento / One of the most important challenges involved in the design of grid computing systems is process scheduling, which maps applications into the available computers in attempt to reduce the application execution time, or maximize resource utilization. The literature of Distributed Systems usually deals with these two objectives separately, supporting the application-centric and the resourcecentric scheduling, respectively. More recently, a third approach referred to as system-centric scheduling has emerged which attempts to optimize both objectives in conjunction. Heuristic-based and approximation-based algorithms have been proposed to address this third type of scheduling. Heuristics aim to find good solutions at acceptable time constraints, without guaranteeing solution quality. On the other hand, approximation-based algorithms provide optimal solution bounds, however they are more difficult to design what makes them available only to simple scenarios. The need for approximation-based algorithms to support system-centric scheduling has motivated this thesis which presents Min Heap-based Scheduling Algorithm (MHSA). This approximation algorithm is based on a mathematical optimization model, also proposed in this work, which considers process and resource behaviors to measure the quality of scheduling solutions. MHSA builds a min-heap data structure in which tree nodes represent computers and sorting keys correspond to queuing times, i.e., computer workloads. Besides this algorithm primarily reduces application execution times (also referred to as makespan), its data structure allows any computer assume the root node and, consequently, receive workloads, what favors resource utilization. This algorithm has the worst-case time complexity equals to O(\'log IND. 2 m\'), in which m represents the number of system computers. Its approximation ratio was analyzed to heterogeneous distributed systems considering bag-of-tasks and communication-intensive applications. Having this ratio, we know the minimum quality level provided by every scheduling solution. Experiments were performed to compare MHSA to others. Results confirm MHSA reduces the time spent to obtain good quality scheduling solutions

Page generated in 0.397 seconds