Spelling suggestions: "subject:"metodo dde fonte carlo"" "subject:"metodo dde fonte sarlo""
1 |
Análise de Arquétipos: introdução a teoria e aplicaçõesMARTINS JÚNIOR, José Márcio 10 April 2015 (has links)
Existem diversas técnicas que auxiliam na interpretação e análise de dados multivariados. Uma
das técnicas mais difundidas e utilizadas é a Análise de Componentes Principais, que tem como
principal objetivo reduzir a dimensionalidade dos dados afim de facilitar a interpretação. A
Análise de Arquétipos também é uma técnica multivariada que busca reduzir a dimensionalidade
dos dados, mas por meio de combinações convexas dos próprios dados. Os arquétipos
são selecionados pela minimização da soma de quadrados de resíduos que representa o erro
cometido ao se reconstruir os dados originais utilizando os arquétipos. Este trabalho teve como
objetivo geral explorar em mais detalhes a Análise de Arquétipos e traçar a sua história, além de
verificar potencialidades de aplicações existentes e futuras em diversas áreas do conhecimento.
De forma mais específica objetivou-se: descrever em detalhes a Análise de Arquétipos, identificar
similaridades e diferenças entre a Análise de Arquétipos e a Análise de Componentes
Principais, realizar estudos de simulação para avaliar qual a melhor métrica para medir a falta
de ajuste dos dados recompostos pelos arquétipos, aplicar a técnica Análise de Arquétipos em
dados sobre a movimentação de jogadores de futebol, realizar simulações Monte Carlo para
avaliar se há algum ganho em executar a Análise de Arquétipos em conjunto com a Análise
de Componentes Principais, e aplicar esta em dados sensométricos experimentais sobre hambúrgueres.
As metodologias utilizadas foram uma extensa revisão bibliográfica e simulações
Monte Carlo. Os resultados mostraram que a Análise de Arquétipos é uma técnica com ampla
aplicabilidade e excelentes resultados práticos. O estudo das métricas concluiu que a soma de
quadrados de resíduos deve ser utilizada por ser a mais simples, e que não há qualquer prejuízo
em utilizar esta métrica em relação as outras estudadas. No contexto do futebol a Análise de
Arquétipos foi capaz de verificar se o jogador ou grupo de jogadores atuam em seu espaço designado,
se a apostura foi ofensiva ou defensiva entre outras, sendo uma nova abordagem para
ser utilizada em conjunto com outras técnicas para este fim. No estudo de simulação que visava
aplicar as duas técnicas, foi evidenciado a capacidade de reconstrução das técnicas em conjunto
e a melhora na interpretabilidade que as técnicas apresentam quando utilizadas conjuntamente. / There are several techniques that aid in the interpretation and analysis of multivariate data. One
of the most widespread techniques used and is the Principal Component Analysis, which aims
to reduce the dimensionality of the data in order to facilitate interpretation. The Archetypal
Analysis is also a multivariate technique that seeks to reduce the dimensionality of the data,
but through convex combinations of the data itself. Archetypes are selected by minimizing the
residual sum of squares that is the mistake to reconstruct the original data using the archetypes.
This work aimed to explore in more detail the Archetypal Analysis and trace its history,
and to identify capabilities of existing and future applications in various areas of knowledge.
More specifically it aimed to: describe in detail the Archetypal analysis, identify similarities
and differences between the Archetypal Analysis and Principal Component Analysis, conduct
simulation studies to assess how best metric for measuring the lack of fit of the data recomposed
by archetypes, apply the Archetypal Analysis on data of the movement of soccer players, perform
Monte Carlo simulations to assess whether there is some gain in performing Archetypal
Analysis in conjunction with the Principal Component Analysis, and apply this to experimental
sensory data of burgers. The methodologies used were an extensive literature review and Monte
Carlo simulations. The results showed that the Archetypal Analysis is a technique with wide
applicability and excellent practical results. The study of metrics concluded that the residual
sum of squares should be used because it is the simplest, and that there is no harm in using this
metric compared to the others tha was studied. In the context of the soccer, Archetypal Analysis
was able to verify that the player or group of players are in their designated space, the offensive
or defensive behavior among others, being a new approach to be used in conjunction with other
techniques for this purpose. About the study of simulation designed to implement both techniques,
was evidenced a improvement of reconstruction capacity and in the interpretability. / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES
|
2 |
Estudo do comportamento das fundações profundas de obra industrial no litoral fluminense usando abordagem probabilísticaReinert, Juliana 05 November 2012 (has links)
Resumo
|
3 |
Estoque de segurança em refinarias de petróleoMenossi, Osvaldo Sergio January 2002 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-gaduação em Engenharia de Produção / Made available in DSpace on 2012-10-20T04:47:01Z (GMT). No. of bitstreams: 1
213441.pdf: 1100964 bytes, checksum: 22281cde978fc4bd49d208d64bc9add6 (MD5) / A tarefa de gerenciar os níveis de estoques de petróleo e derivados, finais ou intermediários, em uma refinaria demanda tomada de decisões sobre um
|
4 |
Estudo das alterações em uma análise fatorial exploratória quando dados normais multivariados são dicotomizadosNovak, Rosilei de Souza January 2016 (has links)
Orientador : Prof. Dr. Jair Mendes Marques / Tese (doutorado) - Universidade Federal do Paraná, Setor de Tecnologia, Programa de Pós-Graduação em Métodos Numéricos em Engenharia. Defesa: Curitiba, 24/06/2016 / Inclui referências : f. 196-201 / Área de concentração / Resumo: A Análise Fatorial Exploratória está presente em grande parte dos estudos empíricos,e as relações resultantes devido a dicotomização de dados normais multivariados éum problema que ainda traz certa preocupação aos pesquisadores que utilizam essametodologia. Estudos realizados utilizando como metodologia a Análise FatorialExploratória apontam uma incerteza quanto as reais consequências dessatransformação e também não se sabe qual a influência do tamanho da amostraquando se está trabalhando com dados dicotomizados. Este estudo tem como objetivoavaliar as relações resultantes de uma Análise Fatorial Exploratória entre dadosnormais multivariados e dados dicotomizados e saber qual a influência do tamanhoda amostra para dados dicotomizados. Desta forma, para avaliar a existência dessesproblemas foram geradas amostras normais multivariadas e suas correspondentesamostras dicotômicas pelo método de simulação Monte Carlo, variando o número devariáveis, o número de observações e o número de fatores. Após essas mudanças foiefetuada a Análise Fatorial, repetindo esse processo cem vezes, obtendo-se osvalores médios. Por fim, a partir dos resultados obtidos na Análise FatorialExploratória, analisaram-se os efeitos da dicotomização de dados normaismultivariados, avaliando-se as comunalidades, a explicação dos fatores e a Medidade Adequação de Amostra (MSA) de Kaiser-Mever-Olkin. Os resultados obtidos foramanalisados graficamente e por inferências estatísticas, para os quais foram utilizadoso teste t de Student, o teste T2 de Hotteling, o teste F de Snedecor e o teste Qui-Quadrado, para comparação das médias, vetores de médias, variâncias e matrizes decovariâncias obtidas. Através do estudo verificou-se a influência do tamanho daamostra de dados dicotomizados em uma Análise Fatorial Exploratória, as resultantesdas comunalidades, a explicação dos fatores e a Medida de Adequação de Amostra(MSA) de Kaiser-Meyer-Olkin foram modelados em função dos logaritmos dostamanhos das amostras com a utilização de modelos de Regressão Polinomial. Naavaliação dos modelos de regressão foram utilizados indicadores de ajustes. Oprimeiro estudo, que determinou as Relações Resultantes de uma Análise FatorialExploratória entre dados normais multivariados e os dados dicotomizados conclui que,para o MSA não existe um padrão de regularidade dos valores para dados normais eos dados dicotomizados; para a variância explicada pelos fatores e comunalidades,conclui-se que, as diferenças entre os valores médios para os dados normais edicotomizados sempre foram significativas, e que os dados normais sempreapresentaram resultados superiores em relação aos dados dicotomizados. Com osegundo estudo que verificou a influência do tamanho da amostra de dadosdicotomizados em uma Análise Fatorial Exploratória conclui-se que para o MSA,variâncias explicadas pelos fatores e comunalidades, o modelo de regressãopolinomial adequado, em relação aos logaritmos dos tamanhos das amostras, foisempre de quinto grau. O MSA forneceu o melhor ajuste, enquanto a variânciaexplicada pelo primeiro fator forneceu o pior ajuste. A variância explicada total ecomunalidades apresentaram um ajuste considerado aceitável.Palavras-chave: Análise Fatorial Exploratória; dados normais multivariados; dadosdicotomizados; simulação Monte Carlo; tamanho de amostra. / Abstract: The exploratory factor analysis is present in most empirical studies and because of thedichotomy of normal multivariate data the resulting relationships are a problem that stillraises concerns for researchers that use this methodology. Studies using ExploratoryFactor Analysis as a tool point uncertainty as to the actual consequences of thistransformation and also nobody knows what the influence of the sample is size whenit is working with dichotomized data. This study aims to evaluate the resulting relationsof Exploratory Factor Analysis between normal multivariate data and dichotomizeddata and know the influence of the sample size for data dichotomized. Thus, toevaluate the existence of such problems, multivariate normal samples were generatedand their corresponding dichotomous by Monte Carlo simulation method, modifyingthe number of variables, the number of observations and the number of factors. Afterfactor analysis was performed and this process was repeated a hundred times,obtaining average values. Finally, the results were obtained with the Exploratory FactorAnalysis, in the study that examined the effects of dichotomization of normalmultivariate data were evaluated commonalities, the explanation of the factors andMeasure of Sampling Adequacy (MSA), from Kaiser-Meyer-Olkin. And the results wereanalyzed graphically and statistical inferences through the T of Student test, the T2Hotteling test, the F Snedercor test and the Qui-Quadrado test to compare the means,mean vectors, variance and covariance matrices obtained. The study that reports theinfluence of sample size on a factor analysis and the resulting evaluatedcommonalities, the explanation of the factors and Measure of sampling adequacy(MSA), from Kaiser-Meyer-Olkin were modeled according of the log sample sizes usingpolynomial regression models, for the evaluation of regression models adjustmentindicators were used. The first study that determined Resulting Relations ofExploratory Factor Analysis between multivariate normal data and dichotomized dataconcludes that, for MSA, there is no standard of values regularity for normal data anddichotomized data. For the variance explained by the factors and commonalities, weconclude that the differences between the mean values for normal data anddichotomized data were always significant. We also conclude that the normal dataalways showed better results than the dichotomized data. With the second study,which found the influence of dichotomized data Sample Size in an Exploratory FactorAnalysis, we conclude that, for MSA, variance explained by the factors andcommonalities and the model of polynomial regression appropriate to the logarithmsof the sample size was always fifth grade. The MSA obtained better adjustment,while the variance explained by the first factor had the worst fit. The total varianceexplained and commonalities had an adjustment considered acceptable.Keywords: Exploratory Factor Analysis; normal multivariate data; dichotomous data;Monte Carlo simulation; sample size.
|
5 |
Aplicação de métodos clássicos de busca local no problema de planejamento do despacho hidrelétricoZanette, Bruno Nocera January 2017 (has links)
Orientador : Fabiano Silva / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 16/08/2017 / Inclui referências : p. 75-76 / Resumo: O planejamento do despacho hidrelétrico é uma questão que não só afeta o Brasil financeira e ambientalmente, como também é um grande problema computacional ainda não resolvido de forma eficiente. Esse planejamento constitui-se das ações operacionais que devem ser executadas mensalmente por cada usina hidrelétrica por um longo período, e o objetivo é atender a demanda de energia elétrica e tentar manter os reservatórios de água das usinas cheios, de forma a reduzir o uso de outras fontes mais caras e poluentes. Essa questão é classificada como um problema de otimização não-linear com restrições de larga escala. Neste trabalho foi desenvolvido um otimizador para o problema de despacho hidrelétrico, com base num simulador de despacho hidrelétrico e técnicas clássicas de busca local. Os objetivos são: encontrar planos melhores que o inicial num curto espaço de tempo e avaliar como a aplicação de pesos e penalidades às variáveis avaliadas pela função fitness ameniza o problema de objetivos conflitantes. Concluíu-se que o método de otimização proposto foi capaz de encontrar planos significativamente melhores em todos os testes realizados num breve período de tempo. Também foi observado que a aplicação de pesos e penalidades às variáveis avaliadas pela função fitness restringiu a redução da quantidade de energia elétrica gerada pelas usinas pelos planos encontrados em prol da elevação dos níveis dos reservartórios de água. Os planos encontrados por este otimizador local podem ser usado como bons pontos iniciais para algoritmos de busca mais refinados. Palavras-chave: algoritmos de busca local, monte carlo, despacho hidrelétrico. / Abstract: The planning of hydroelectric dispatch is a matter that does not only affects Brazil financially and environmentally, but it is also a big computational problem that is not efficiently solved yet. This planning is composed by the operational actions that must be executed monthly by each hydroelectric power plant for a long period, and the objective is to meet the demand for electric power and to maintain the water reservoirs of the hydroelectric power plants filled, in order to reduce the usage of more expensive and poluent power sources. This question is classified as a large scale nonlinear optimization problem with restrictions. In this study was developed an optimizer for the problem of hydroelectric power plants planning, based on a simulator of hydroelectric power plant and classic local search techniques. The objctives are: to find better plans than the initial one in a short period of time and to evaluate how the application of weights and penalties to variables evaluated by fitness function alleviates the problem of conflicting objectives. It was concluded that the proposed optimization method was able to find significantly better plans in all tests performed in a short period of time. It was also observed that the application of weights and penalties to the variables evaluated by fitness function restricted the reduction of the amount of electric power generated by the plants with the plans found in favor of raising the levels of water reservoirs. The plans found by this local optimizer can be used as good starting points for more refined search algorithms. Keywords: local search algorithms, monte carlo, hydroelectric dispatch.
|
6 |
Simulações computacionais aplicadas ao processo de evacuação de ambientesSilva, Tatiane Cazarin da 17 May 2012 (has links)
Resumo: A modelagem do fluxo de pedestres por meio de simulações computacionais tem sido amplamente aplicada a problemas que envolvem multidão devido à capacidade de predição. O aumento do fluxo populacional nos grandes centros urbanos tem gerado preocupação quanto à necessidade de segurança e infraestrutura adequadas, imprescindíveis na minimização de transtornos decorrentes da inadequação ou violação dos recursos. Essas são características que conduzem a um estudo ainda maior sobre os fatos que podem afetar o comportamento de uma multidão numa situação de emergência. Modelos de simulação de dinâmica de pedestres são aplicados em fenômenos coletivos, destacando peculiaridades observadas em situações de evacuação, tais como otimização do espaço e minimização do tempo de evacuação de ambientes. Associado ao aprimoramento de projetos de construção, ao planejamento urbano e ao fortalecimento da dinâmica social as simulações de evacuação de ambientes em condições de emergência encontram-se diretamente relacionadas às evoluções temporais que, por sua vez, determinam um processo estocástico. Nesse sentido, a presente pesquisa apresenta resultados de simulações computacionais aplicadas ao processo de evacuação de uma sala de cinema, numa situação sem pânico, por meio da análise do tempo de evacuação total. O ambiente de simulação foi modelado a partir da análise de algumas normas e regras de arquitetura e segurança, tendo uma capacidade máxima de 130 pedestres. A fim de descrever as interações entre os campos de força dinâmica e estática, e a aleatoriedade do comportamento humano, as regras de interação decorrentes da delimitação do espaço e da movimentação são estabelecidas com o auxílio da teoria dos autômatos celulares bidimensionais, com vizinhança de Moore, e do Método de Simulação de Monte Carlo, desenvolvidos em linguagem Pascal. Para descrever o comportamento do fluxo de pedestres foram definidos alguns parâmetros, tais como tempo de reação, velocidade constante e minimização dos trajetos de saída. Por meio de variações no modelo foi possível adaptá-lo às restrições para cadeirantes, que alteram significativamente sua estrutura, já que se trabalha com elementos de áreas espaciais diferentes. Aplicando as simulações a diferentes lotações do espaço, considerando geometrias diferentes, destaca-se um modelo espacial de sala de cinema, dentre 5 casos analisados, que minimiza o tempo total de evacuação em função do número de pedestres, sob as hipóteses fixadas. Os resultados apontaram uma diferença significativa quanto à influência das limitações geométricas no sucesso da evacuação, chegando a aproximadamente 45% a diferença nos tempos finais obtidos. Destacando a relação entre o tempo total de evacuação e o número de pedestres de uma sala de cinema, verificou-se que existe uma dependência não linear entre tais parâmetros, validada estatisticamente, que descreve o comportamento do fluxo de pedestres e especificam características quando se trata da análise de evacuação de um ambiente.
|
7 |
Propriedades de estimadores econométricos para a função de produção CES : um estudo de simulação Monte-Carlo para as formas primal e dualWegner Neto, Ronald January 2017 (has links)
Orientador : Prof. Dr. Maurício Vaz Lobo Bittencourt / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Ciencias Sociais Aplicadas, Programa de Pós-Graduação em Desenvolvimento Ecônomico. Defesa : Curitiba, 13/04/2017 / Inclui referências : f. 48-50 / Resumo: Do encontro entre a teoria microeconômica e a econometria surgem dois momentos complementares: o primeiro _e a adaptação do modelo teórico ao meio econometrico; o segundo momento concerne da adequação dos resultados econometricos ao modelo teórico. O leitmotiv deste trabalho _e utilizar a função de produção CES em sua formulação primal e dual, obtendo-se um ponto ótimo teórico através do problema da maximização de lucro. Uma vez com este modelo, serão construídas cinco regressões econometricas, tendo em mente uma simulação de Monte-Carlo para fornecer algumas propriedades sobre os estimadores que serão utilizados: OLS (aproximação de Kmenta) e NLLS (Levenberg- Marquardt). Finalmente, o objetivo é entender como os erros estocásticos na demanda de insumos influenciam as propriedades dos estimadores na formulação primal, indo de encontro ao dual que não leva esses erros. Os principais achados corroboram a literatura sobre inconsistência com erros estocásticos no consumo de insumos no modelo primal, assim como com a aproximação de Kmenta, ainda que na forma dual. Mesmo quando o método NLLS de Levenberg-Marquardt mostra alguma consistência com pequenas variáveis e distúrbios ainda menores, este estimador regressando grandes números atinge ainda os verdadeiros parâmetros em alguns casos, embora a função de densidade dos dados exiba dois picos distintos, levando-nos a concluir que os verdadeiros parâmetros não foram alcançados, mas alguns valores de sua vizinhança que são frequentemente obtidos, ao invés do valor verdadeiro. Palavras-chave: Estimativa primal-dual, simulação Monte-Carlo, CES. / Abstract: The association between microeconomic theory and econometrics results in two subsequent overlapping moments. First, a theoretical model that must be adapted to econometrical environments; and secondly, the econometrical results that satisfy the theoretical model. This work leitmotiv is to use the CES production function in its primal and dual formulation, resulting in a theoretical optimum point through the profit maximization problem. Whilst defining the model, this study builds five econometric regressions based on a Monte-Carlo simulation to provide some properties about the estimators that will be used: OLS (Kmenta approximation) and NLLS (Levenberg- Marquardt). Our purpose is to understand how stochastic errors in input demand still influence the properties of the estimators in primal formulation even though the dual lack these errors. The main findings corroborate the literature about inconsistency with stochastic errors in input consumption and Kmenta's approximation, even in dual form. Our conclusions are buttressed by the finding that even when the Levenberg-Marquardt NLLS method shows some consistency with small valued variables and minor disturbances, it still could achieve the true parameter in some cases, even when regressing great numbers. Even though the density function, in some cases of the data, exhibits two peaks, leading us to understand that not the true parameters were achieved, but that some neighbourhood values are frequently achieved instead. Keywords: Primal-dual estimation, Monte-Carlo simulation, CES.
|
8 |
Estudo por simulação computacional da interação entre polianfóteros fracos e macroíons cilíndricosCaetano, Daniel Lucas Zago [UNESP] 01 March 2013 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:22:55Z (GMT). No. of bitstreams: 0
Previous issue date: 2013-03-01Bitstream added on 2014-06-13T20:49:32Z : No. of bitstreams: 1
caetano_dlz_me_sjrp.pdf: 1254208 bytes, checksum: 47fe7b5f86668c59ac679a681574479a (MD5) / Polianfóteros são cadeias poliméricas de monômeros que são caracterizadas pela presença tanto de grupos ácidos quanto de grupos básicos ao longo da sua cadeia. A interação entre polianfóteros e macroons carregados tem sido investigada por um grande número de estudos teóricos e experimentais. Este interesse e devido a sua importância em uma ampla variedade de sistemas biológicos e tecnológicos, tais como a estabilização/desestabilização de soluções coloidais, a associação entre DNA e prote nas histonas e o desenvolvimento de formas de terapia gênica não-viral pela associação DNA-polications. O propósito deste estudo é, portanto, investigar as propriedades conformacionais e o processo de adsor ção/dessorção de polianfóteros fracos sobre macroíons cilíndricos carregados negativamente por meio de simulações de Monte Carlo associadas ao algoritmo de Metropolis. O macroíon foi representado simplesmente por um cilindro infinito rígido, com uma densidade de carga uniforme sobre seu eixo. O polianf ótero foi representado por uma cadeia de Nesferas rígidas, conectadas por ligações harmônicas e a solu ção eletrolítica foi tratada pela teoria de Debye-Hückel. A fração de monômeros carregados é calculada tanto para a cadeia livre em solução quanto na presença do macroíon. As propriedades conformacionais da cadeia adsorvida, como por exemplo, raio de giro, número médio de monômeros em trains, em loops e em tails, em função da força iônica também são calculadas. Verifica-se que a presença de um macroíon carregado negativamente modi ca as propriedades acido/base do polianfótero fraco e que o efeito de regulação de carga afeta o processo de adsorção / Polyampholytes are polymer chains of monomers which are characterized by the pre-sence of both acid and basic groups along their chain. The adsorption of polyampholyte chains onto charged macroions has been the subject of a large number of theoretical and experimental studies. This interest is due to its importance in a wide variety of biological and technological systems, such as the stabilization and destabilization of colloidal solutions, the association of DNA with histone proteins and the development of forms of non-viral gene therapy by DNA-polycations interaction. This study aims, therefore, at investigating the conformational properties and the adsorption/desorption process of weak polyampholytes onto negatively charged rod-like macroion by means of Metropolis Monte Carlo simulations. The macroion was represented simply by an in nity rigid cylinder with uniform charge density on its axis. The polyampholyte was represented by a chain with Ncharged hard spheres connected by harmonic bonds, and the electrolyte solution was treated by the Debye-H uckel theory. The degree of ionization of the monomer is calculated both for the free chain in solution and for the adsorbed chain. The conformational properties of the adsorbed chain, such as radius of gyration, the average number of monomers in trains, in loops and in tails, in function of the ionic strength are also provided. It is found that the presence of one negatively charged macroion modi es the acid/base properties of the weak polyampholyte and that the e ect of charge regulation a ects the adsorption process
|
9 |
Estudo de N-metilformamida em meio aquoso e não aquoso (THF)Borges, Alexandre [UNESP] 17 February 2012 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:29:09Z (GMT). No. of bitstreams: 0
Previous issue date: 2012-02-17Bitstream added on 2014-06-13T20:19:00Z : No. of bitstreams: 1
borges_a_me_ilha.pdf: 1084225 bytes, checksum: 63e5cb04f3f23d44251cc6144dca0b85 (MD5) / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / Utilizando a simulação molecular com método Monte Carlo estudou-se neste trabalho as características estruturais e termodinâmicas dos líquidos puros N–Metilformamida (NMF) e Tetrahidrofurano (THF), bem como de suas misturas em diferentes concentrações. Realizou- se também um estudo das características estruturais e termodinâmicas de misturas N– Metilformamida–Água, em diferentes concentrações, para fins de comparação. Os resultados estruturais obtidos para os líquidos puros foram comparados com resultados experimentais de difratometria de nêutrons com posterior refinamento estrutural por potencial empírico (EPSR). Na simulação computacional foi utilizado o programa DIADORIM. As simulações foram realizadas no ensemble estatístico NpT, ou seja, com número de moléculas, pressão e temperatura constantes. O número total de moléculas na caixa de simulação foi de 400, à pressão de 1 atm e à temperatura de 298,15K. A concordância entre os resultados experimentais e teóricos dos líquidos puros foi boa, o que permitiu prosseguir sabendo que os resultados obtidos para as misturas seriam confiáveis. Em relação aos líquidos puros foi mostrada a presença de ligações de hidrogênio na estrutura da NMF e da água, sendo que estes líquidos apresentam-se bem estruturados. Conclui-se que o THF apresenta estrutura ―desorganizada‖.Os resultados obtidos para a mistura NMF–THF sugerem a existência de ligações de hidrogênio entre estas moléculas de NMF e THF no líquido, e os valores de suas energias de ligação de hidrogênio, segundo os resultados obtidos, apresentam valores semelhantes à interação NMF–NMF, o que juntamente com a observação das propriedades termodinâmicas estudadas neste trabalho indicam um comportamento ideal da solução. Também pode ser observado... / The structural and thermodynamic properties of pure liquids N-methylformamide (NMF) and Tetrahydrofuran (THF), as well as their mixture in different concentrations were studied through Monte Carlo simulation. The structural and thermodynamic properties of N– Methylformamide–water in different concentrations was also investigated, aiming comparisons. The structural results obtained to pure liquids were compared to experimental results of neutron diffratometry with empirical potential structure refinement (EPSR). For the computational simulation, was used the DIADORIM program. The simulations were carried out on the NpT statistical ensemble. The total number of molecules in the simulation box was 400, over a 1 atm pressure and 298,15K temperature. The accordance between the experimental and theoretical structure of pure liquids was good, what permits to infer on the reliability of the results obtained for the mixtures. Regarding to pure liquids it was shown the presence of hydrogen bonds in NMF and water structures, being that those liquids are well structured. It was not observed the presence of hyrogen bonds among the molecules of THF presenting this liquid a disorganized structure. The obtained results of the NMF–THF mixture, suggest the presence of hydrogen bonds between those molecules in the liquid. It was also observed by the obtained results that this liquid is well structured. The mixture NMF–water, as well as the mixture NMF-THF, are well structured, but either NMF and water are proton acceptors and donors and leads to the presence of two hydrogen connections between NMF and water molecules. The study of structural and thermodynamic properties of the mixture NMF–water, show a proper behavior for the solution, as in the case THF-NMF, but when comparing NMF-NMF in both cases, the water appeared to interfere more on the interaction between NMF molecules than THF ones
|
10 |
Utilización de modelos empíricos y filtros de partículas sensibles al riesgo para detección temprana de anomalíasOssa Gómez, Gabriel Felipe January 2013 (has links)
Ingeniero Civil Electricista / El presente trabajo de memoria postula como objetivo el estudio del desempeño de filtros de partículas en el área del pronóstico y diagnóstico de fallas, modelando sistemas dinámicos no-lineales por medio de formas paramétricas. También se desarrollan diferentes estrategias de filtrado, las cuales evalúan la validez del estado estimado an base a la información pasada de la operación. Todas las estrategias se evalúan analizando el efecto de la variabilidad de los parámetros del modelo sobre el rendimiento en estimación, predicción y detección de anomalías
Los filtros de partículas corresponden a técnicas basadas en representaciones empíricas de la dis- tribución de probabilidad del estado en modelos Bayesianos. En el contexto de un modelo dinámico, tales técnicas sirven para estimar los estados y parámetros variantes en el tiempo de dicho modelo. El uso de curvas de ajuste parámetricas permite expandir el uso previamente mencionado a modelos que además de incluir las componentes mencionadas poseen parámetros fijos en su definición.
El rendimiento de los métodos estudiados fue evaluado mediante el uso de datos empíricos pro- venientes de pruebas experimentales. En particular, los datos usados corresponden a una estimación directa del crecimiento de una fractura axial en una placa del engranaje planetario de un helicóptero.
Para abordar el problema, se determinó usar la función arcotangente hiperbólica como curva de ajuste, con el fin de modelar la propagación de la fractura del componente mecánico en el tiempo. Además, se establecieron mecanismos novedosos basados en la generación de proyecciones de trayectorias en el pasado de la curva de ajuste a partir del vector de estados del modelo para un instante determinado, mediante la cual se evalúa el verosimilitud histórica de la estimación proporcionada por el algoritmo haciendo uso de la distribución chi-cuadrado y su distribución acumulada complementaria. De esta forma, se analizó el desempeño de cinco filtros: uno que sólo incluye la curva de ajuste en su operación, y otros cuatro que generan proyecciones de trayectorias en el pasado, para distintas ventanas de tiempo histórico y distribuciones de evaluación.
El análisis de los filtros entregó resultados regulares. El filtro sin proyección pasada tuvo un mejor desempeño a la hora de filtrar, y la predicción ofrecida por el mismo se mantuvo estable. Por otra parte, los filtros basados en el uso de proyecciones de trayectorias en el pasado y que evaluaban con la distribución chi-cuadrado presentaron signos de degeneración muestral para variabilidades muy altas en los parámatros de la curva de ajuste, pero ofrecieron capacidades de detección importantes. Por último se observó un alto nivel de degeneración muestral en los filtros que hacían uso de las proyecciones en el pasado pero que evaluaban con la distribución acumulada complementaria de la distribución chi-cuadrado, bajo todas las condiciones experimentales estudiados.
Se concluye a partir del trabajo realizado que la variabilidad de los ruidos involucrados al usar formas paramétricas en el modelo de sistema influye fuertemente en los desempeños de los filtros, y que, en términos de desempeño, el filtro de partículas sólo con curva de ajuste tiene mejor desempeño que aquellos que hacen uso de proyecciones de trayectorias en el pasado.
|
Page generated in 0.0612 seconds