• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 331
  • 24
  • 12
  • 7
  • 3
  • 2
  • 2
  • 2
  • 2
  • 1
  • Tagged with
  • 379
  • 220
  • 92
  • 67
  • 47
  • 46
  • 45
  • 43
  • 43
  • 41
  • 39
  • 33
  • 32
  • 31
  • 31
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
341

Uma análise espectroscópica de discos de acresção em variáveis cataclísmicas / A Spectroscopic Analysis of Accretion Disks in Cataclysmic Variables

Ribeiro, Fabíola Mariana Aguiar 27 October 2006 (has links)
Neste trabalho é apresentado um estudo observacional de discos de acresção em Variáveis Cataclísmicas (VCs). São analisadas medidas espectrofotométricas com resolução temporal dos perfis de linhas de emissão. A emissividade em linhas dos sistemas é mapeada utilizando a técnica de tomografia Doppler. Os parâmetros básicos das binárias, tais como período orbital, massas, inclinação orbital, são determinados quando necessário. Um código foi desenvolvido para simular a variabilidade das linhas de emissão em sistemas binários, além da presença de vento. O código foi utilizado para quantificar os parâmetros necessários para um estudo adequado de tomografia do flickering, tais como número de espectros, relação sinal-ruído destes, e frequência e amplitude do flickering em questão. Três sistemas são abordados: V3885 Sgr, RR Pic e V841 Oph. A variabilidade intrínseca de V3885 Sgr é mapeada através da técnica de tomografia do flickering. O flickering foi simulado e verificou-se que a fonte principal de flickering observada em V3885 Sgr não poderia se originar em um disco de acresção Kepleriano, mas sim na face iluminada da estrela secundária. Uma interpretação proposta para este fenômeno seria de um cenário onde o flickering no contínuo UV originado nas regiões centrais do disco ou na mancha quente é reprocessado na face iluminada da secundária. Obtivemos a primeira confirmação, para uma Variável Cataclísmica de curto período (RR Pic), de uma secundária com relação massa/raio distante da sequência principal. No caso de V841 Oph determinamos o período orbital e obtivemos uma razão de massas um pouco inferior a 1. Verificamos a existência de uma região de emissão mais intensa localizada no quadrante oposto ao esperado para a mancha quente, sendo esta região particularmente brilhante em HeI. O disco de acresção de V841 Oph foi verificado como sendo de baixa emissividade em linhas. / An observational study of accretion disks in Cataclysmic Variables (CVs) is presented in this work. Time-resolved spectrophotometric data of the emission line profiles are analyzed. The line emissivity of the systems is mapped using the Doppler tomography technique. The basic orbital parameters of the systems, like the orbital period, mass, orbital inclination, are determined when needed. A code was developed to simulate the emission line profile variability in binary systems, also including the presence of a wind. Such a code was used to quantify the parameters involved in a flickering tomography study, like the number of spectra, signal-to-noise ratio, frequency and amplitude of the flickering. Three systems are analyzed: V3885 Sgr, RR Pic and V841 Oph. The intrinsic variability in V3885 Sgr is mapped using the flickering tomography technique. The flickering was simulated and we have verified that the main flickering source in V3885 Sgr could not be located on the Keplerian accretion disk. The inner face of the secondary star is proposed instead. One interpretation of this phenomenon is a scenery where flickering in the UV continuum from the inner parts of the accretion disk is reprocessed at the illuminated face of the secondary star. The first confirmation of a secondary star with a mass-radius relation far from the main sequence values was obtained for a CV with a short period (RR Pic). In the case of V841 Oph we determined the orbital period and obtained a mass-ratio slightly below 1. We verified the presence of a region of enhanced emission in the quadrant opposite to the one expected for the hot spot. The emission of this region is particularly enhanced in HeI. The V841 Oph accretion disk was verified as being of low emissivity in lines.
342

Rede neural recorrente com perturbação simultânea aplicada no problema do caixeiro viajante / Recurrent neural network with simultaneous perturbation applied to traveling salesman problem

Benini, Fabriciu Alarcão Veiga 15 December 2008 (has links)
O presente trabalho propõe resolver o clássico problema combinatorial conhecido como problema do caixeiro viajante. Foi usado no sistema de otimização de busca do menor caminho uma rede neural recorrente. A topologia de estrutura de ligação das realimentações da rede adotada aqui é conhecida por rede recorrente de Wang. Como regra de treinamento de seus pesos sinápticos foi adotada a técnica de perturbação simultânea com aproximação estocástica. Foi elaborado ainda uma minuciosa revisão bibliográfica sobre todos os temas abordados com detalhes sobre a otimização multivariável com perturbação simultânea. Comparar-se-á também os resultados obtidos aqui com outras diferentes técnicas aplicadas no problema do caixeiro viajante visando propósitos de validação. / This work proposes to solve the classic combinatorial optimization problem known as traveling salesman problem. A recurrent neural network was used in the system of optimization to search the shorter path. The structural topology linking the feedbacks of the network adopted here is known by Wang recurrent network. As learning rule to find the appropriate values of the weights was used the simultaneous perturbation with stochastic approximation. A detailed bibliographical revision on multivariable optimization with simultaneous perturbation is also described. Comparative results with other different techniques applied to the traveling salesman are still presented for validation purposes.
343

Implementación en hardware de sistemas de alta fiabilidad basados en metodologías estocásticas

Canals Guinand, Vicente José 27 July 2012 (has links)
La sociedad actual demanda cada vez más aplicaciones computacionalmente exigentes y que se implementen de forma energéticamente eficiente. Esto obliga a la industria del semiconductor a mantener una continua progresión de la tecnología CMOS. No obstante, los expertos vaticinan que el fin de la era de la progresión de la tecnología CMOS se acerca, puesto que se prevé que alrededor del 2020 la tecnología CMOS llegue a su límite. Cuando ésta llegue al punto conocido como “Red Brick Wall”, las limitaciones físicas, tecnológicas y económicas no harán viable el proseguir por esta senda. Todo ello ha motivado que a lo largo de la última década tanto instituciones públicas como privadas apostasen por el desarrollo de soluciones tecnológicas alternativas como es el caso de la nanotecnología (nanotubos, nanohilos, tecnologías basadas en el grafeno, etc.). En esta tesis planteamos una solución alternativa para poder afrontar algunos de los problemas computacionalmente exigentes. Esta solución hace uso de la tecnología CMOS actual sustituyendo la forma de computación clásica desarrollada por Von Neumann por formas de computación no convencionales. Éste es el caso de las computaciones basadas en lógicas pulsantes y en especial la conocida como computación estocástica, la cual proporciona un aumento de la fiabilidad y del paralelismo en los sistemas digitales. En esta tesis se presenta el desarrollo y evaluación de todo un conjunto de bloques computacionales estocásticos implementados mediante elementos digitales clásicos. A partir de estos bloques se proponen diversas metodologías computacionalmente eficientes que mediante su uso permiten afrontar algunos problemas de computación masiva de forma mucho más eficiente. En especial se ha centrado el estudio en los problemas relacionados con el campo del reconocimiento de patrones. / Today's society demands the use of applications with a high computational complexity that must be executed in an energy-efficient way. Therefore the semiconductor industry is forced to maintain the CMOS technology progression. However, experts predict that the end of the age of CMOS technology progression is approaching. It is expected that at 2020 CMOS technology would reach the point known as "Red Brick Wall" at which the physical, technological and economic limitations of CMOS technology will be unavoidable. All of this has caused that over the last decade public and private institutions has bet by the development of alternative technological solutions as is the case of nanotechnology (nanotubes, nanowires, graphene, etc.). In this thesis we propose an alternative solution to address some of the computationally exigent problems by using the current CMOS technology but replacing the classical computing way developed by Von Neumann by other forms of unconventional computing. This is the case of computing based on pulsed logic and especially the stochastic computing that provide a significant increase of the parallelism and the reliability of the systems. This thesis presents the development and evaluation of different stochastic computing methodologies implemented by digital gates. The different methods proposed are able to face some massive computing problems more efficiently than classical digital electronics. This is the case of those fields related to pattern recognition, which is the field we have focused the main part of the research work developed in this thesis.
344

Uma abordagem estocástica para aumento de produtividade em linhas de montagem: o problema de balanceamento de produção / An stochastic approach to increase productivity in assembly lines: the assembly line balancing problem

Souza, Yuri Prado 27 August 2018 (has links)
Submitted by YURI PRADO DE SOUZA (yuriprado.uff@gmail.com) on 2018-10-17T22:40:46Z No. of bitstreams: 1 Dissertação v60 - final.pdf: 1880394 bytes, checksum: 1c4ca28a4089a492a49b54e291c33dea (MD5) / Rejected by Pamella Benevides Gonçalves null (pamella@feg.unesp.br), reason: Solicitamos que realize correções na submissão seguindo as orientações abaixo: Rever a ordenação dos elementos pré-textuais ... capa, folha de rosto ... ficha catalográfica ... • A capa e ficha catalográfica não são consideradas para contagem de páginas. a paginação deve aparecer no canto superior direito a partir da introdução, realizei a contagem das páginas e seu trabalho deve com o número (14)*, após você precisa atualizar a numeração na ficha catalográfica, nas listas e no sumário. • Resumo: Apenas palavra Resumo e Abstract devem ser centralizada; o resumo deve ser em parágrafo único. (favor ver exemplo no template ou diretrizes) o As palavras-chave e keyword devem ser separadas entre si por ponto final e também finalizadas por ponto. (favor ver exemplo no template ou diretrizes) • A lista de figuras existem algumas que não aparece o título, a numeração das figuras devem ser continuas independente do capitulo. • Sumário: deve ter os mesmo destaques tipográfico que as seções do trabalho, deve ser alinhado à esquerda (veja exemplo no template ou diretrizes) • Favor revisar as todos os indicativos de seção em seu trabalho e no sumário • INDICATIVO DE SEÇÃO Os títulos das seções devem começar na parte superior da folha e separados do texto que os sucede por um espaço de 1,5 entrelinhas. Da mesma forma, os títulos das subseções devem ser separados do texto que os precede e que os sucede por por um espaço de 1,5 entrelinhas. Os títulos das seções devem ser destacados tipograficamente, da primária a quinária. As seções primárias por serem as principais divisões de texto, devem iniciar em folha distinta, no final dos indicativos de seção não tem ponto final exemplo 7 MODELO DE REFERÊNCIA (seção primária) - caixa alta/negrito 7.1 PUBLICAÇÃO PERIÓDICA (seção secundária) - caixa alta sem negrito 7.1.1 Publicação periódica no todo (seção terciária) negrito 7.1.1.1 Artigo de periódico (seção quaternária) - sem negrito 7.1.1.1. Com autor pessoal (seção quinária) - Itálico e negrito • Qualquer que seja o tipo de ilustração (figuras, desenhos, gráficos, diagramas,fluxogramas, fotografias, mapa, planta, quadro, imagem entre outros) sua identificação (título) aparece na parte superior com letra tamanho 12; o Na parte inferior, Tamanho da letra 10, indicar a fonte consultada (elemento obrigatório, mesmo que seja produção do próprio autor), notas e outras informações necessárias à sua compreensão. o Devem conter a fonte mesmo que elaborada pelo autor. o Ex: Fonte: Autor Fonte: Autoria própria (favor ver exemplo no template ou diretrizes) • As fontes das ilustrações, tabelas e quadros não podem ser links . Areferência deve ser informada ao final, seguindo os padrões da ABNT.Para indicar a fonte, deve ser colocada a autoria e o ano entre parênteses. Ex.: Martins (2010). Quando uma referência for retirada de um meio eletrônico deve-se identificar uma autoria para o que é visualizado na página; se não houver título, escrever uma pequena descrição do que foi visto e seguir com os dados: disponível em:<endereço eletronico> . Acesso em: xx mes xxxx. A autoria pode ser uma pessoa física, uma Instituição, uma empresa, uma pessoa jurídica e até o nome do próprio site. Ex.: ECOVILAS. Condomínios autossustentados e permaculturais. Disponível em: <http://www.ecoovilas.com/projetos/permacultura>. Acesso em: 10 out. 2017. Será colocado na Fonte: Ecovilas (2017) • Referências. A palavra Referências deve ser centralizada, e não conter numeração de seção; As referencias devem ser justificadas, espaço simples com um espaço simples(enter) entre elas. • Sobre a elaboração das referencias e citações e formatação favor solicitar ajuda com URGÊNCIA a bibliotecária Juciene (juciene.pedroso@unesp.br) Mais informações acesse o link: http://www2.feg.unesp.br/Home/Biblioteca21/diretrizes-2016.pdf Agradecemos a compreensão. on 2018-10-18T12:54:42Z (GMT) / Submitted by YURI PRADO DE SOUZA (yuriprado.uff@gmail.com) on 2018-10-19T18:53:48Z No. of bitstreams: 2 Dissertação v60 - final.pdf: 1880394 bytes, checksum: 1c4ca28a4089a492a49b54e291c33dea (MD5) Dissertação v-61 formatado2.pdf: 1810118 bytes, checksum: 4638b9426aac62a064b565b38ffda481 (MD5) / Approved for entry into archive by Pamella Benevides Gonçalves null (pamella@feg.unesp.br) on 2018-10-19T19:04:38Z (GMT) No. of bitstreams: 1 souza_yp_me_guara.pdf: 1810118 bytes, checksum: 4638b9426aac62a064b565b38ffda481 (MD5) / Made available in DSpace on 2018-10-19T19:04:38Z (GMT). No. of bitstreams: 1 souza_yp_me_guara.pdf: 1810118 bytes, checksum: 4638b9426aac62a064b565b38ffda481 (MD5) Previous issue date: 2018-08-27 / Neste trabalho propõe-se uma abordagem para o Problema de Balanceamento de Linhas de Montagem (do inglês, Assembly Line Balancing Problem - ALBP) para aumentar a eficiência de uma indústria montadora de veículos. O ALBP caracteriza-se como um problema de sequenciamento de tarefas em estações de trabalho classificado como um problema de Otimização Combinatória NP-difícil e, portanto, a solução exata do problema em ambientes reais geralmente implica em elevado custo computacional. Para resolver o ALBP, foram formulados um modelo matemático de otimização inteira mista para obtenção de soluções determinísticas e um modelo estocástico com recurso que considera a incerteza dos tempos de execução das tarefas pelos operadores. A motivação para o desenvolvimento do presente trabalho decorre da observação de interrupções constantes do fluxo de produção nesta indústria, atribuídas às mais diversas naturezas, e que causavam transtornos e elevados níveis de estresse aos trabalhadores. Ambos os modelos, determinístico e estocástico, aumentaram a capacidade de produção de 196 unidades/dia para 245 e 233 unidades/dia, respectivamente. O modelo estocástico aumentou o tempo de ciclo CT em 5,6% quando comparado ao modelo determinístico, embora diminua a capacidade efetiva em 4,8% Porém, não considerar a incerteza no tempo de execução das tarefas pode diminuir a quantidade produzida em até 10,6%. Contrariamente ao entendimento comum em linhas de montagem, este trabalho conclui que reduzir os tempos de ociosidade aos níveis mínimos é prejudicial à produtividade de linhas de montagem. Isto se deve ao fato de que uma parcela do tempo atribuído à ociosidade dos operadores, na verdade contêm um tempo adicional gerado pela incerteza do tempo de execução das tarefas. Os resultados sugerem que a abordagem do ALBP sob incerteza contribui para o aumento dos índices de capacidade operacional da empresa. Devido ao grande esforço computacional necessário para a solução dos modelos de otimização propostos (determinístico e estocástico), não se consegue resolver, em um tempo computacional razoável, exemplares de dimensões reais do problema. Em vista disto, o trabalho propõe também uma heurística para a solução do ALBP visando minimizar o tempo de ciclo. Experimentos computacionais sugerem que a heurística proposta obtém resultados razoáveis para grandes exemplares do problema em um tempo computacional pequeno / This work proposes solution approaches to the Assembly Line Balancing Problem (ALBP) to increase the efficiency of a vehicle assembler industry. The ALBP is characterized as a task sequencing in workstations which is classified as a NP-hard Combinatorial Optimization problem and, therefore, the exact solution of the problem in real environments usually implies a high computational cost. In order to solve the ALBP, a mathematical model of mixed integer optimization to obtain deterministic solutions and a stochastic model with resource that considers the uncertainty of the execution times of the tasks by the operators were formulated. The motivation for the development of this work stems from the constant interruptions of the production flow in this industry, attributed to the most diverse natures, which cause disorders and high levels of stress to the workers. The deterministic and stochastic models increased the production capacity from 196 units / day to 245 and 233 units / day, respectively. The stochastic model increased the cycle time by 5.6% when compared to the deterministic model, although it reduced the effective capacity by 4.8%, which is equivalent to 12 vehicles / day. However, not considering the uncertainty in task execution times can decrease the amount produced by up to 10.6% or 26 vehicles / day. Contrary to the most acceptable idea, this work concludes that reducing idle times to minimum levels is detrimental to assembly line productivity. This is due to the fact that a portion of the time attributed to the idleness of the operators actually contains an additional time generated by the uncertainty of the execution time of the tasks. The results suggest that the approach of the ALBP under uncertainty contributes to the increase of the indices of operational capacity of the company. Due to the great computational effort required to solve the proposed optimization models (deterministic and stochastic), it is not possible to solve real instances of the problem in a reasonable computational time. In view of this, this work also proposes a heuristic for the ALBP solution in order to minimize the cycle time. Computational experiments suggest that the proposed heuristic obtains reasonable results for large instances of the problem in a small computational time
345

Análise de portfólio: uma perspectiva bayesiana

Tito, Edison Americo Huarsaya 03 June 2016 (has links)
Submitted by EDISON AMERICO HUARSAYA TITO (edison.tito@gmail.com) on 2016-06-23T14:02:55Z No. of bitstreams: 1 EdisonMscFGV(20160619).pdf: 2366030 bytes, checksum: 231be2cde1e7f8e01331fddff3f227a1 (MD5) / Approved for entry into archive by GILSON ROCHA MIRANDA (gilson.miranda@fgv.br) on 2016-06-23T14:36:07Z (GMT) No. of bitstreams: 1 EdisonMscFGV(20160619).pdf: 2366030 bytes, checksum: 231be2cde1e7f8e01331fddff3f227a1 (MD5) / Approved for entry into archive by GILSON ROCHA MIRANDA (gilson.miranda@fgv.br) on 2016-06-24T12:51:11Z (GMT) No. of bitstreams: 1 EdisonMscFGV(20160619).pdf: 2366030 bytes, checksum: 231be2cde1e7f8e01331fddff3f227a1 (MD5) / Made available in DSpace on 2016-06-29T12:06:48Z (GMT). No. of bitstreams: 1 EdisonMscFGV(20160619).pdf: 2366030 bytes, checksum: 231be2cde1e7f8e01331fddff3f227a1 (MD5) Previous issue date: 2016-06-03 / This work has the objective to address the problem of asset allocation (portfolio analysis) under a Bayesian perspective. For this it was necessary to review all the theoretical analysis of the classical mean-variance model and following identify their deficiencies that compromise its effectiveness in real cases. Interestingly, its biggest deficiency this not related to the model itself, but by its input data in particular the expected return calculated on historical data. To overcome this deficiency the Bayesian approach (Black-Litterman model) treat the expected return as a random variable and after that builds a priori distribution (based on the CAPM model) and a likelihood distribution (based on market investor’s views) to finally apply Bayes theorem resulting in the posterior distribution. The expected value of the return of this posteriori distribution is to replace the estimated expected return calculated on historical data. The results showed that the Bayesian model presents conservative and intuitive results in relation to the classical model of mean-variance. / Este trabalho tem com objetivo abordar o problema de alocação de ativos (análise de portfólio) sob uma ótica Bayesiana. Para isto foi necessário revisar toda a análise teórica do modelo clássico de média-variância e na sequencia identificar suas deficiências que comprometem sua eficácia em casos reais. Curiosamente, sua maior deficiência não esta relacionado com o próprio modelo e sim pelos seus dados de entrada em especial ao retorno esperado calculado com dados históricos. Para superar esta deficiência a abordagem Bayesiana (modelo de Black-Litterman) trata o retorno esperado como uma variável aleatória e na sequência constrói uma distribuição a priori (baseado no modelo de CAPM) e uma distribuição de verossimilhança (baseado na visão de mercado sob a ótica do investidor) para finalmente aplicar o teorema de Bayes tendo como resultado a distribuição a posteriori. O novo valor esperado do retorno, que emerge da distribuição a posteriori, é que substituirá a estimativa anterior do retorno esperado calculado com dados históricos. Os resultados obtidos mostraram que o modelo Bayesiano apresenta resultados conservadores e intuitivos em relação ao modelo clássico de média-variância.
346

Construção de superfície de volatilidade para o mercado brasileiro de opções de dólar baseado no modelo de volatilidade estocástica de Heston

Bustamante, Pedro Zangrandi 11 February 2011 (has links)
Submitted by Cristiane Shirayama (cristiane.shirayama@fgv.br) on 2011-06-03T16:41:12Z No. of bitstreams: 1 66080100251.pdf: 1071566 bytes, checksum: 633248672cb6ac94f704bfeda06b29d3 (MD5) / Approved for entry into archive by Vera Lúcia Mourão(vera.mourao@fgv.br) on 2011-06-03T16:46:36Z (GMT) No. of bitstreams: 1 66080100251.pdf: 1071566 bytes, checksum: 633248672cb6ac94f704bfeda06b29d3 (MD5) / Approved for entry into archive by Vera Lúcia Mourão(vera.mourao@fgv.br) on 2011-06-03T17:00:17Z (GMT) No. of bitstreams: 1 66080100251.pdf: 1071566 bytes, checksum: 633248672cb6ac94f704bfeda06b29d3 (MD5) / Made available in DSpace on 2011-06-03T18:49:55Z (GMT). No. of bitstreams: 1 66080100251.pdf: 1071566 bytes, checksum: 633248672cb6ac94f704bfeda06b29d3 (MD5) Previous issue date: 2011-02-11 / Nos últimos anos, o mercado brasileiro de opções apresentou um forte crescimento, principalmente com o aparecimento da figura dos High Frequency Traders (HFT) em busca de oportunidades de arbitragem, de modo que a escolha adequada do modelo de estimação de volatilidade pode tornar-se um diferencial competitivo entre esses participantes. Este trabalho apresenta as vantagens da adoção do modelo de volatilidade estocástica de Heston (1993) na construção de superfície de volatilidade para o mercado brasileiro de opções de dólar, bem como a facilidade e o ganho computacional da utilização da técnica da Transformada Rápida de Fourier na resolução das equações diferenciais do modelo. Além disso, a partir da calibração dos parâmetros do modelo com os dados de mercado, consegue-se trazer a propriedade de não-arbitragem para a superfície de volatilidade. Os resultados, portanto, são positivos e motivam estudos futuros sobre o tema. / In recent years, the Brazilian option market has grown considerable, especially with the emergence of the High Frequency Traders (HFT) in search of arbitrage opportunities, so that the appropriate choice of a volatility estimation model should become a competitive differentiator among these participants. This paper presents the advantages of adopting the Heston stochastic volatility model on the construction of the volatility surface for the Brazilian US Dollar option market, as well as the easiness and the computational gain by applying the Fast Fourier Transform technique on the models differential equations resolution. Furthermore, from calibration of the model parameters to market data, it is possible to bring the no-arbitrage property to the volatility surface. The results, therefore, are positive and motivate further studies on the subject.
347

Estimação do espectro de relaxação de polímeros através do algoritmo Simulated Annealing / Determination of polymer relaxation spectrum through Simulated Annealing algorithm

Gabriel Caetano da Silva 30 August 2006 (has links)
A determinação do espectro de relaxação de polímeros utilizando dados de tensão oscilatória de baixa amplitude pode ser calculada assumindo-se que existe uma única função contínua H(&#955;) capaz de descrever o comportamento viscoelástico linear. O objetivo deste trabalho é determinar esta função ou uma aproximação da mesma utilizando um algoritmo estocástico denominado Simulated Annealing. A estratégia proposta é similar a proposta por Jensen (2002), entretanto, a lista de resfriamento do algoritmo foi modificada, objetivando-se uma maior robustez do referido algoritmo. A ferramenta computacional foi calibrada de forma a estimar com acurácia o espectro de relaxação discreto de outros polímeros. Os métodos de interpolação lagrangeana e de regressão não-linear foram aplicados para obter a função contínua do espectro de relaxação, a partir de um conjunto discreto de dados. Os resultados obtidos para o polietileno linear de baixa densidade (PELBD) comprovaram a eficiência da ferramenta computacional de otimização, sendo extremamente próximos aos fornecidos pelo reômetro AR 2000 (CENPES/PETROBRAS). / The determination of the relaxation spectrum using data from small amplitude oscillatory shear rate was accomplished by assuming that exists a unique continuous function H(&#955;) which describes linear viscoelasticity. The aim of this work is to determine this function or a close approximation using a computer stochastic algorithm called Simulated Annealing (SA). The strategy is the same proposed by Jensen, but the cooling schedule of SA algorithm was modified, in order to enhance the robustness of the referred algorithm. Besides, a calibration procedure was conducted for estimate accurate relaxation spectrum for other polymers. Lagrangean interpolation and nonlinear regression techniques were applied in order to obtain the continuous function that represent relaxation spectrum, using discrete data. The results generated for low linear density polyethylene (LLDPE) indicate the efficiency of the optimization computational tool, being extremely close to that produced by AR 2000 rheometer (CENPES/PETROBRAS).
348

Um novo método híbrido aplicado à solução de sistemas não-lineares com raízes múltiplas / A new hybrid method applied to the solution of nonlinear systems with multiple roots

Maurício Rodrigues Silva 22 June 2009 (has links)
Este trabalho tem como objetivo apresentar soluções de sistemas não-lineares com raízes múltiplas, através de um algoritmo híbrido. Para esta finalidade foi desenvolvido e implementado um algoritmo de busca aleatória baseado no método proposto por Luus e Jaakola (1973) como etapa de busca aleatória dos pontos iniciais, que são refinados através do algoritmo de Hooke e Jeeves. O diferencial deste trabalho foi propor um algoritmo híbrido, utilizando as características dos algoritmos Luus-Jaakola e Hooke e Jeeves como etapas de busca e refinamento respectivamente. Para isso, os algoritmos acima são encapsulados em funções no algoritmo híbrido. Além destas duas etapas, o algoritmo híbrido possui duas outras características importantes, que é a execução repetida até que se alcance um número suficiente de soluções distintas, que são então submetidas a um processo de classificação de soluções por intervalo, onde cada intervalo gera um conjunto de soluções próximas, que por sua vez, são submetidas à etapa final de minimização, resultando em apenas um valor de solução por classe. Desta forma cada classe produz uma única solução, que faz parte do conjunto final de soluções do problema, pois este algoritmo é aplicado a problemas com múltiplas soluções. Então, o algoritmo híbrido desenvolvido foi testado, tendo como padrão, vários problemas clássicos de programação não-linear, em especial os problemas irrestritos com múltiplas soluções. Após os testes, os resultados foram comparados com o algoritmo Luus-Jaakola, e o Método de Newton Intervalar / Bisseção Generalizada (IN/GB - Interval Newton/Generalized Bisection), com a finalidade de se obter uma análise quantitativa e qualitativa de seu desempenho. Por fim comprovou-se que o algortimo Híbrido obteve resultados superiores quando comparados com os demais. / This paper aims to present solutions for nonlinear systems with multiple roots, using a hybrid algorithm. For this purpose was developed and implemented an algorithm based on random search method proposed by Luus and Jaakola (1973) as a step in search of random starting points, which will be refined through the algorithm of Hooke and Jeeves. The differential of this work is to propose a hybrid algorithm, using the characteristics of the Luus-Jaakola algorithm and Hooke and Jeeves as a search and refinement stages respectively. For this, the above algorithms are encapsulated in functions in the hybrid algorithm. Besides these two steps, the hybrid algorithm has two other important characteristics, which is the execution repeated until to reach a sufficient number of distinct solutions, which is then undergo a process of classification of solutions by interval, where each interval generates a set solutions to close, which in turn is subject to the final stage of minimization, resulting in only one value per class of solution. Thus each class provides a unique solution, which is part of the final set of solutions of the problem, because this algorithm is applied to problems with multiple solutions. So, the hybrid algorithm developed was tested, with the standard, several problems of classical non-linear programming, in particular the unrestricted problems with multiple solutions. After the tests, the results were compared with algorithm Luus-Jaakola, and the Interval Newton/Generalized Bisection method (IN/GB), in order to obtain a quantitative and qualitative analysis of their performance. Finally it was found that the hybrid algortimo achieved higher when compared to the others.
349

Dependência entre perdas em risco operacional

Requena, Guaraci de Lima 12 February 2014 (has links)
Made available in DSpace on 2016-06-02T20:06:09Z (GMT). No. of bitstreams: 1 5762.pdf: 2315381 bytes, checksum: 2d23013b02c4b33dcbf1b10405b613b9 (MD5) Previous issue date: 2014-02-12 / Financiadora de Estudos e Projetos / In this work, we present and discuss the operational risk in the financial institutions, Basel Accord II, the structure of dependence between cumulative operational losses, a tool for modeling this dependence (theory of copula) and the allocation of a capital, called regulatory capital. The usual method for calculation of regulatory capital for operational risk, suggested by Basel Committee, overestimates the final capital because it is considered that the losses are perfectly positively dependents. Then, we propose a new method for this calculation based on theory of copula for the bivariate case. Such method models the dependence between two losses and considers a index (representing the expert opinion). We discuss also a method studied on Alexander (2003) and perform a simulation study in order to compare all methods, the usual, the proposed and the convolution one. / Nesse trabalho, abordamos o risco operacional nas instituições financeiras sob o ponto de vista do Acordo de Basileia II, a característica da presença de dependência estocástica entre as variáveis aleatórias em questão, a ferramenta para modelagem de tal dependência (teoria de cópulas) e a alocação de capital regulatório. Como o método usual para alocação de capital regulatório sugerido pelo Acordo de Basileia II superestima tal capital por considerar que as variáveis perdas são perfeitamente dependentes, propomos neste trabalho uma metodologia alternativa, baseada em teoria de cópulas, para o caso bivariado. Tal metodologia modela a dependência entre duas perdas e ainda inclui a opinião de especialistas da área no modelo final. Também discutimos uma metodologia existente na literatura (método da convolução) e fazemos um estudo de simulação para analisar o comportamento dos métodos abordados: método usual, proposto e da convolução.
350

Modelos de fronteira estocástica: uma abordagem bayesiana / Stochastic frontier models: a bayesian approach

Juliana Garcia Cespedes 24 July 2008 (has links)
A firma é o principal agente econômico para a produção e distribuição de bens e serviços. Seu constante investimento em melhorias e o aperfeiçoamento de sua capacidade produtiva, visando tornar-se cada vez mais eficiente, transforma-se em um determinante central do bem estar econômico da sociedade. O processo de medir a ineficiência de firmas baseia-se em análises de fronteiras, onde a ineficiência é medida como a distância entre os pontos observados da variável resposta e a função de produção, custo ou lucro verdadeiras, dependendo do modelo assumido para descrever a variável resposta. Existe uma variedade de formas funcionais para essas funções e algumas vezes é difícil julgar qual delas deve ser escolhida, visto que a forma verdadeira é desconhecida e pode ser somente aproximada. Em geral, na literatura, dados de produção são analisados assumindo-se modelos multiplicativos que impõem a restrição de que a produção é estritamente positiva e utiliza-se a transformação logarítmica para linearizar o modelo. Considera-se que o logaritmo do produto dada a ineficiência técnica tem distribuição contínua, independentemente de os dados serem contínuos ou discretos. A tese divide-se em dois artigos: o primeiro utiliza a inferência bayesiana para estimar a eficiência econômica de firmas utilizando os modelos de fronteira estocástica de custo com forma funcional flexível Fourier, que asseguram um bom ajuste para a fronteira, sendo fundamental para o cálculo da ineficiência econômica; o segundo artigo propõem os modelos generalizados de fronteira estocástica, baseando-se nos modelos lineares generalizados mistos com a abordagem bayesiana, para quantificar a ineficiência técnica de firmas (medida de incerteza) utilizando a variável resposta na escala original e distribuições pertencentes à família exponencial para a variável resposta dada a medida de ineficiência. / The firm is the main economic agent for the production and distribution of goods and services. Its constant investment in improvements and enhancement of its productive capacity to make itself more efficient becomes a central determinant of economic welfare of society. The measure process of inefficiency is based on frontier analysis, where inefficiency is measured as the distance between the observed points from variable response and real production, cost or profit function, depending on chosen model to describe the variable response. There are several functional forms to these functions and sometimes it is very difficult to decide which one has to be chosen because the true form is unknown and it can just be approximate. Generally, in the literature, production data are analyzed assuming multiplicative models that impose the restriction of what the production is strictly positive and use the logarithm transformation to turn the model lineal. It is considerate that the product\'s logarithm given the technical inefficiency has distribution continual, independent if the data are continuous or discrete. The papers presented in this thesis are: the first paper uses the bayesian inference to estimate the economic efficiency of firms in the cost stochastic frontier models using the Fourier flexible cost function, that assure a good settlement to the frontier being essential to calculate the economic inefficiency. The second paper proposes a generalized stochastic frontier models, based on generalized linear mixed models with the Bayesian approach, to quantify the inefficiency technical of the firms (uncertainty measures) by using the response variable in the scale original with distributions belonging on the exponential family to the response variable given the measure of inefficiency.

Page generated in 0.0435 seconds