1031 |
Rentabilidade e risco na produção de suínos para abate no sistema por ciclo completo: uma aplicação da simulação de Monte Carlo para os estados da região sul do Brasil / Profitability and risk in the swine production for slaughter in the system by full cycle: an application of Monte Carlo simulation for Brazil’s south statesPereira, André Ricardo 21 February 2018 (has links)
Submitted by Fabielle Cheuczuk (fabielle.cheuczuk@unioeste.br) on 2018-05-07T14:18:25Z
No. of bitstreams: 2
André Ricardo Pereira - Dissertação.pdf: 1038387 bytes, checksum: 34f06dcb1ba5261f0f29056d21b13160 (MD5)
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Made available in DSpace on 2018-05-07T14:18:25Z (GMT). No. of bitstreams: 2
André Ricardo Pereira - Dissertação.pdf: 1038387 bytes, checksum: 34f06dcb1ba5261f0f29056d21b13160 (MD5)
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5)
Previous issue date: 2018-02-21 / The production of pigs for slaughter has been characterized as an important activity of Brazilian agribusiness. Like other productive activities, swine farming is subject to several risks and
economic risk, in the aspect of the probability of obtaining profit or loss, tends to be preponderant in the decision to produce or not. This research had as main objective to examine the
profitability and risk of the production of pigs for slaughtering in the system by Complete
Cycle in the main producing region of the country. For this, secondary data were used for the
three states of the southern region of Brazil: Paraná, Santa Catarina and Rio Grande do Sul,
by the variables: price paid to the producer per kilogram of live pig, from January 2012 to
April 2017 and fixed and variable costs per kilogram, from January 2011 to April 2017. The
Monte Carlo simulation was used to obtain the desired results. In general, the main results
show that swine farmers in the three states that adopt the Full Cycle system show low levels
of profitability and negative net income risk. The swine farmers of Paraná presented the best
situation, with a higher level of profitability compared to the producers of Santa Catarina and
Rio Grande do Sul. / A produção de suínos para abate tem se caracterizado como uma importante atividade do
agronegócio brasileiro. Assim como outras atividades produtivas, a suinocultura está sujeita a
diversos riscos e o risco econômico, no aspecto da probabilidade de se obter lucro ou prejuízo,
tende a ser preponderante na decisão de produzir ou não. Esta pesquisa teve como objetivo
principal examinar a rentabilidade e o risco da produção de suínos para abate no sistema por
Ciclo Completo na principal região produtora do país. Para tal, foram utilizados dados secundários referentes aos três estados da região sul do Brasil, Paraná, Santa Catarina e Rio Grande
do Sul, das variáveis: preço pago ao produtor por quilograma de suíno vivo, no período de
janeiro de 2012 a abril de 2017; e custos fixos e variáveis por quilograma, no período de janeiro de 2011 a abril de 2017. Utilizou-se a simulação de Monte Carlo para a obtenção dos
resultados almejados. Este método possibilita a simulação dos resultados, pois permite que as
variáveis críticas do modelo sejam trabalhadas a partir de suas distribuições de probabilidade
de ocorrência. De maneira geral, os principais resultados mostram que os suinocultores dos
três estados que adotam o sistema por Ciclo Completo apresentam níveis de rentabilidade
baixos e risco de resultados negativos. Os suinocultores paranaenses apresentaram a melhor
situação, com nível de rentabilidade superior aos dos produtores catarinenses e sul-riograndenses.
|
1032 |
Uma proposta para a obtenção da população sintética através de dados agregados para modelagem de geração de viagens por domicílio / A proposal to obtain a synthetic population through aggregated data to model the number of trip productions per householdMarcela Navarro Pianucci 16 September 2016 (has links)
A estimativa de viagens por domicílio é fundamental para a tomada de decisões relativas ao planejamento urbano e de transportes. Em geral, a obtenção destas informações é por meio de modelos tradicionais como o modelo clássico de quatro etapas, e a primeira etapa do modelo é a geração de viagens. Entretanto, modelos clássicos apresentam inúmeras falhas, muitas delas relacionadas a suposições prévias matemáticas (normalidade ou continuidade da variável dependente). Desta forma, surge a necessidade de testar outras técnicas de modo a minimizar as falhas apresentadas pelos modelos clássicos e utilizá-las como uma ferramenta auxiliar, como por exemplo, as Redes Neurais Artificiais (RNAs), que podem ser aplicáveis na modelagem de problemas complexos e não lineares na área de engenharia de transportes, pois apresentam capacidade de aprendizagem, adaptação e generalização. Assim, para estimar viagens por domicílio, seja pela modelagem tradicional ou pela modelagem RNA são necessários dados desagregados dos domicílios, incluindo dados dos indivíduos, como as atividades diárias que exerce me dados sócio demográficos, etc. Esses dados são geralmente obtidos por uma Pesquisa O/D, que fornece um banco de dados detalhado sobre o comportamento de viagem da população de uma cidade. No entanto, a maioria das cidades enfrenta problemas para a aquisição desses dados, uma vez que este tipo de pesquisa possui alto custo de preparação, execução, processamento e análise. Portanto, percebe-se a necessidade de novos métodos que forneçam dados confiáveis e com baixo custo, para estimar a demanda por viagens, capazes de gerar resultados com rapidez, qualidade e acurácia e sem a necessidade dos dados provenientes de uma Pesquisa O/D. Devido a dificuldade de aquisição de dados desagregados, foi proposto neste trabalho, a geração da população sintética com dados agregados a partir da aplicação do Método Monte Carlo. Este trabalho tem por objetivo gerar uma população sintética baseada em dados censitários agregados e testar a adequabilidade das RNAs para estimar viagens por domicílio. Neste estudo, a modelagem tradicional foi utilizada para comparar nos resultados obtidos com a modelagem RNA, pois o objetivo não foi checar minuciosamente a qualidade dos modelos lineares, e sim, testar a adequabilidade das RNAs para estimar viagens por domicílio. A abordagem tradicional se baseou em um modelo de regressão linear enquanto que a abordagem de redes neurais consistiu da rede perceptron multi camadas. Na execução do trabalho foram calibrados quatro modelos (dois de cada abordagem) com os dados desagregados da Pesquisa O/D e foram comparados os resultados obtidos de cada abordagem. Ao final do trabalho, foi possível escolher o modelo mais adequados de cada abordagem e em seguida, foram utilizados para prever viagens por domicílio com os dados obtidos pela população sintética. Os resultados indicaram que 70% das variáveis obtidas na população sintética foram consideradas aptas para o estudo e que a estimativa de viagens por domicílio da população sintética obtida em ambos os modelos (Modelo 3-RNA) e (Modelo 4-RLM) obtiveram uma boa previsão, ou seja, mais de 70% das viagens por domicílio da população sintética foram consideradas válidas. Isso demonstrou que, o uso de da modelagem RNA é uma técnica alternativa eficiente e promissora na área de planejamento de transportes, especificamente para a previsão de viagens por domicílio. / The estimated number of household travels is essential in the decision-making process related to urban and transportation planning. Usually, this information is obtained through traditional models, such as four-step classic model, for example, which has trip generation as a first step. However, classic models feature numerous failures. Many of these failures are related to mathematical prior assumptions (normality or continuity of the dependent variable). Thus, it is important to test other techniques in order to reduce the failures and use these techniques as an auxiliary tool, i.e. Artificial Neural Networks (ANN). ANN are applicable in the modeling of complex and nonlinear transportation problems, due to its learning, adaptation and generalization capacities. Thus, to estimate the number of household travel, either by traditional or by ANN models, it is required disaggregated data of the households. It might include information of individuals, as daily activities and sociodemographic information. Usually, these data are obtained by a O/D survey, which provides a detailed database of the population travel behavior of the city. However, the obtainment of this information leads to high costs of preparation, execution, processing and analysis of the data. Thus, most cities have faced problems to attain this information. Therefore, new methods of estimation providing reliable data and low cost, are required. It will enable to estimate the demand of travel, rapidly with quality and accuracy, without the need of data provided through an O/D survey. Due to the difficulty of acquiring disaggregated data, this study proposes the generation of synthetic population through aggregated data by applying the method of Monte Carlo. This study aims to generate a synthetic population based on aggregated census data, and test the suitability of ANN to estimate the number of household travels. Since the aim was not thoroughly check the quality of linear models, instead, test the suitability of ANN to estimate the number of household travels, obtained results of traditional and ANN models were compared. The traditional approach was based on a linear regression while the neural network consisted of Multilayer Perceptron network. Four models (two of each approach) were proposed and calibrated with disaggregated data of an O/D Survey. Then, the results were compared. It enabled to choose the most appropriate model of each approach. Hence, these models were used to forecast the number of household travels, using the data obtained by the synthetic population proposed. The results indicated that 70% of the variables obtained through the synthetic population, were considered suitable for the study. Besides, the estimated number of household travels of the synthetic population obtained for both models (Model 3-RNA and 4-MLR model) presented a good forecast, indicating that more than 70% of household travels of the synthetic population were considered valid. Finally, it is concluded that the use of ANN modeling is an effective and promising alternative technique in the transportation-planning field, specifically to forecast the number of household travels.
|
1033 |
Modelo discreto de solvente. Solvatocromismo no espectro de absorção molecular / Discrete model of the solvent. Solvatochromic at the absorption spectrum molecular.Kaline Rabelo Coutinho 18 December 1997 (has links)
Um procedimento baseado no uso sequencial de simulação Monte Carlo e cálculos de Mecânica Quântica é proposto e usado para o tratamento de efeitos de solvente, com especial atenção parao sovatocromismo no espectro de absorção molecular. A ideia básica é realizar simulações clássicas com o método Monte Carlo para gerar estruturas supermoleculares do sistema em solução e em seguida tratar estas supermoléculas (soluto, solvente e suas interações) com cálculos quânticos. Um modelo totalmente discreto do solvente é utilizado e, portanto, o uso de meios dielétricos contínuos é dispensado. Neste procedimento, as supermoléculas são compostas por uma molécula do soluto rodeada pela primeira camada de solvatação definida através da função distribuição. Os efeitos de solvente são calculados usando médias configuracionais sobre estruturas supermoleculares descorrelacionadas obtidas através de análises estatísticas das simulações. Como aplicação, os deslocamentos espectrais da primeira banda de absorção do benzeno 1B2u(- *), devido a presença de diversos solventes, foram analisados e calculados. Boa concordância com os resultados experimentais foram obtidos. / A approach based on the sequential use of Monte Carlo simulation and Quantum Mechanics is proposed and use for the treatment of solvent effects with special attention to solvatochromic shifts. The basic Idea is to perform a classical Monte Carlo simulation to generate supermolecular structures of the system, then to treat these supermolecules (solute, solvent and all its interaction) by quantum mechanics. This is a totally discrete modelo f the solvent that avoids the use of a dielectric continuum. In this approach, the supermolecules are composed by the solute molecule surrounded by the first solvation Shell as determined by the distribution function. The solvent effects are calculated using ensemble average over uncorrelated supermolecular structures obtained by statistical analysis. As na application, the spectral shifts of the 1B2u(- *) trnsition of benzene in different solvents are investigated. Good agreement with the experimental results are obtained.
|
1034 |
Modelo de juntas soldadas por FSW utilizando métodos de aprendizagem de máquina através de dados experimentais / Welded joint model by FSW using machine learning methods through experimental dataArcila Gago, Manuel Felipe, 1987- 23 August 2018 (has links)
Orientador: Janito Vaqueiro Ferreira / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Mecânica / Made available in DSpace on 2018-08-23T16:12:48Z (GMT). No. of bitstreams: 1
ArcilaGago_ManuelFelipe_M.pdf: 7192169 bytes, checksum: 7b23a08769656a07765344e20d1f6ad4 (MD5)
Previous issue date: 2013 / Resumo: A variedade de materiais no setor aeronáutico para redução de peso e custo tem se proliferado a um grau intensivo, onde têm sido revisadas diferentes pesquisas para encontrar outros tipos de materiais de fácil maneabilidade para construção de peças que satisfazem as restrições impostas. Assim, existe uma procura constante de soluções para facilitar a produção, e ao mesmo tempo aumentar a segurança das aeronaves levando em consideração pontos importantes como a fadiga e ruptura do material. Um material frequentemente utilizado que atende a estes requisitos devido a suas propriedades de densidade e resistência é o alumínio, e é neste ambiente que existe um processo de manufatura utilizado para a soldagem conhecido como "Friction Stir Welding" (FSW). No presente momento, estudos para criação de modelos que representem características mecânicas utilizadas em projetos em função de parâmetros do processo tem sido pesquisados. Embora este processo seja de difícil modelagem devidos as suas complexidades, tem sido estudado e utilizado diferentes algoritmos que possibilitem o melhoramento da representação do modelo, tais como os relacionados com máquinas de aprendizagem (ML) e suas diferentes otimizações. Neste contexto, a presente pesquisa tem seu foco na obtenção de um modelo baseado no algoritmo de aprendizagem de Máquina de Vetores de Suporte (SVM), e também com outros algoritmos tais como Regressão Polinomial (RP) e Rede Neural Artificial (RNA), buscando encontrar modelos que representem o processo de soldagem por FSW através das propriedades mecânicas obtidas pelos ensaios de tração e por análise de variância (ANOVA), entendendo suas vantagens e, posteriormente, recomendar quais dos algoritmos de aprendizagem tem maior beneficio / Abstract: In the aerospace industry to reduce weight and cost, a great quantity of materials has been used, which has generated research to find types of materials, that have been better maneuverability and to guarantee the properties required to development of pieces for the industry. Thus, the studies look for optimize between production easiness and increase the aircraft safety, taking into consideration important issues such as fatigue and fracture of the materials. One of the most common approach used is aluminum by their mechanical properties (density and strength), although it has many problems to be welding with the traditional methods. Currently, the Friction Stir Welding (FSW) process is used in the industry, as well in the academy. However, the FSW is difficult to model by the complexities in the physical phenomenal occurred during the weld process, as result, has been studied and used different algorithms that allow enhance the model representation. The Machine Learning (ML) is a methodology studied to obtain the model optimized. In this context, the present research focus by to obtain a model-based in learning algorithm using Support Vector Machine (SVM). Although comparisons were made with other algorithms such as Polynomial Regression (PR) and Artificial Neural Network (ANN), searching to find models that represent the FSW process weld using the mechanical properties obtained by tensile tests and analysis of variance (ANOVA). Finally, conclusions to understand the advantages learning algorithms are presented / Mestrado / Mecanica dos Sólidos e Projeto Mecanico / Mestre em Engenharia Mecânica
|
1035 |
Simulação acelerada de baixo custo para aplicações em nanoengenharia de materiais / Low cost accelerated simulation for application in nanoengineering materialsTuratti, Luiz Gustavo, 1977- 23 August 2018 (has links)
Orientadores: Jacobus Willibrordus Swart, Stanislav Moshkalev / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação / Made available in DSpace on 2018-08-23T22:11:44Z (GMT). No. of bitstreams: 1
Turatti_LuizGustavo_D.pdf: 35255933 bytes, checksum: dbbe11c7c0f55012ba27274415c2494d (MD5)
Previous issue date: 2013 / Resumo: Este é um trabalho multidisciplinar que aborda questões de química, física, engenharia elétrica (nanoengenharia) e principalmente avanços obtidos com simulações por computador. Os programas comumente utilizados para simulações de fótons/íons focalizados em outro material consomem recursos computacionais por diversas horas ou até dias, para concluir os cálculos de determinado experimento, como a simulação de um processo efetuado com o equipamento FIB/SEM (Focused Ion Beam/Scanning Electron Miscroscopy), por exemplo. Através do uso de ambientes computacionais virtualizados, associados a programação paralela em CPU (Central Processing Unit) e GPGPU (General Purpose Graphics Processing Unit) é possível reduzir significativamente o tempo da simulação de horas para minutos, em situações de interação de partículas, que envolvem aproximação de colisões binárias (BCA, Binary Collision Approximation) e o Método de Monte Carlo (MMC), principalmente. O uso de placas gráficas (comumente utilizadas para jogos) potencializou o poder de processamento numérico para uso acadêmico a baixo custo, reduzindo o tempo para obtenção de resultados que foram comprovados experimentalmente. A utilização de programas análogos que empregam BCA e MMC, tais como TRIM/SRIM (Transport of Ions in Matter, atualizado para Stopping and Range of Ions in Matter), MCML (Monte Carlo for Multi Layered media) e CUDAMCML (Compute Unified Device Architecture, MCML) auxiliam a comparação de ganho de desempenho entre CPU e GPGPU evidenciando o melhor desempenho desta última arquitetura, com CUDA. Em simulações equivalentes com matrizes esparsas executadas em CPU e GPGPU, a redução do tempo de processamento variou entre três e quinze mil vezes, respectivamente. Com o Método de Monte Carlo, a redução foi de até cento e quarenta e uma vezes para melhores resultados. As simulações de alto desempenho e baixo custo computacional permitem antever algumas situações experimentais, diminuindo a necessidade de explorar todas as possibilidades práticas e, dessa forma, reduzindo o custo com laboratório / Abstract: This is a multidisciplinary work that addresses issues of chemistry, physics, electrical engineering (Nanoengineering) and especially advances obtained with computer simulations. Programs commonly used for simulations of photons/ions focused onto other materials consume computational resources for several hours or even days, to complete the simulations of a process performed with the equipment FIB/SEM (Focused Ion Beam/Scanning Electron Miscroscopy), for example. Through virtualized computing environments associated with parallel programming on CPU (Central Processing Unit) and GPGPU (General Purpose Graphics Processing Unit) is possible to significantly reduce the simulation total time from hours to minutes in the interactions of particles, involving binary collision approximation (BCA) and Monte Carlo method (MMC), mostly. The use of graphics cards (generaly used for games) enhanced the numerical processing power to be used in academia with low cost and reduced the time to obtain results experimentally verified. The use of similar software using BCA and MMC, such as TRIM/SRIM (Transport of Ions in Matter, upgraded to Stopping and Range of Ions in Matter), MCML (Monte Carlo for Multi Layered media) and CUDAMCML (Compute Unified Device Architecture, MCML) helped us to make a comparison of performance between CPU and GPGPU showing the best performance of the latter architecture, with CUDA. In equivalent simulations using sparse matrices in CPU and GPGPU, the time reduction of processing varied between three and fifteen thousand times, respectively. With the Monte Carlo method, reduction was up to one hundred forty one times for best results. Simulations of high performance and low computational cost allow us to predict some experimental situations, reducing the need to explore all practical possibilities and thus, reducing the lab costs / Doutorado / Eletrônica, Microeletrônica e Optoeletrônica / Doutor em Engenharia Elétrica
|
1036 |
Implementação e testes de Métodos Monte Carlo para simulação de equilíbrio sólido-líquido / Development and tests of Monte Carlo methods for solid-liquid equilibrium simulationMartins, Tiago Dias, 1986- 07 May 2011 (has links)
Orientador: Charlles Rubber de Almeida Abreu / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Química / Made available in DSpace on 2018-08-18T21:35:53Z (GMT). No. of bitstreams: 1
Martins_TiagoDias_M.pdf: 4166409 bytes, checksum: 78baf81dcc9cf9d746302c21e813f9e2 (MD5)
Previous issue date: 2011 / Resumo: O estudo a nível microscópico do Equilíbrio Sólido-Líquido (ESL) só se desenvolveu a partir do século XX e ainda existem aspectos de tal fenômeno que não são bem compreendidos, mesmo para os sistemas mais simples. Por esse motivo, é necessário que métodos eficientes para simular diretamente o ESL sejam formulados. O principal objetivo deste trabalho foi desenvolver e implementar Métodos Monte Carlo Multicanônicos para simular o ESL de sistemas de Lennard-Jones e, então, avaliar a aplicabilidade de tais métodos com base na sua eficiência. Primeiramente, buscou-se melhorar os resultados do método desenvolvido por Muguruma e Okamoto (2008), que visava amostrar a energia do sistema uniformemente e o volume com probabilidade de Boltzmann, enquanto mantinha-se fixo o número de partículas da caixa de simulação cúbica. Em seguida, uma nova abordagem foi proposta, cuja principal característica é não restringir o formato da caixa, embora a amostragem fosse realizada da mesma forma. Em ambos os métodos, a densidade de estados do sistema foi estimada usando a técnica da matriz de transições e uma abordagem de paralelização das simulações foi empregada a fim de se obter uma amostragem mais efetiva. Os resultados obtidos com o primeiro método mostraram que uma simulação como essa depende significativamente do número de partículas. Além disso, a amostragem dos estados de energia ficou presa na fase sólida. Já os resultados obtidos com a nova metodologia foram ligeiramente melhores que os obtidos com o método anterior. A amostragem para o sistema com o menor número de partículas foi equivalente para as duas fases em questão. No entanto, as simulações com sistemas maiores apresentaram o mesmo problema apontado no método anterior. A princípio, sugeriu-se a existência de uma transição polimórfica. No entanto, simulações na fase sólida com a nova metodologia apontam o contrário. Apesar dos resultados insatisfatórios, este trabalho se constitui em um passo importante no estudo de um tema complexo, que é a previsão de Equilíbrio Sólido-Líquido utilizando métodos de simulação direta / Abstract: The study at the microscopic level of Solid-Liquid Equilibrium (SLE) was only developed in the 20th century and still exist some aspects of this phenomenon that are not well understood, even for the simplest systems. Therefore, it is necessary the development of efficient methods to directly simulate the SLE. The main objective of this work was to develop and implement Multicanonical Monte Carlo methods to simulate the SLE of the Lennard-Jones system and then evaluate their applicability based on efficiency. First, we sought to improve the performance of a method used by Muguruma and Okamoto (2008), which aimed to sample the system energy uniformly and the volume with the Boltzmann probability, while keeping fixed the number of particles in a cubic simulation box. Then a new approach was proposed, whose main feature was let the shape of the box free, although the sampling was performed in the same way. In both methods, the density of states of the system was estimated using the transition matrix technique and an approach for parallelization of the simulations was employed to obtain a more effective sampling. The results obtained with the first method showed that such a simulation depends on the number of particles present in the system. Moreover, the sampling of energy states got stuck in the solid phase. The results obtained with the new method were slightly better than those obtained with the previous method. The sampling for the system with the lowest number of particles was equivalent for the two phases concerned. However, simulations with larger systems presented the same problem of the previous method. At first, it was suggested the existence of a polymorphic transition. However, simulations in the solid phase with the new methodology show the opposite. Despite the unsatisfactory results, this work constitutes na important step in studying a complex subject, which is the prediction of Solid-Liquid Equilibrium using direct simulation methods / Mestrado / Engenharia de Processos / Mestre em Engenharia Química
|
1037 |
Identification de l’impédance d’un traitement en présence d’un écoulement / Acoustical impedance identification under flow conditionsBuot de l’Épine, Yorick 29 June 2017 (has links)
Afin de réduire les bruits rayonnés en sortie de guide d’onde, des traitements acoustiques localement réactifs, comme les structures « Plaque perforée/Nid d’abeilles », peuvent être appliqués en liner. La conception de ces liners devient alors un challenge important avec l’apparition de nouvelles normes sur le bruit et impose de posséder une très bonne connaissance du comportement de ces traitements, en particulier leur impédance de surface. Néanmoins, la caractérisation de cette impédance n’est pas une chose facile et est généralement réalisée via des modèles semi-empiriques comme ceux de Guess, Elnady, Allam ou expérimentalement par des méthodes de mesures directes ou inverses. Ces approches inverses permettent, par la confrontation d’une modélisation du problème avec des observations expérimentales, de retourner, au travers d’une fonction coût, l’impédance du traitement. Ces méthodes ont l’avantage de réaliser une observation dans les conditions réelles d’utilisation du traitement. En effet, de nombreux paramètres influencent l’impédance de surface comme la présence d’un écoulement, l’incidence de l’onde… Dans cette thèse, une méthode d’identification de l’impédance est proposée. A partir de l’impédance de surface d’un traitement « Plaque perforée/Nid d’abeille » prédite par un modèle empirique via ses paramètres géométriques (épaisseur de la plaque, diamètre des perforations…), une méthode basée sur l’approche Bayésienne est implémentée afin de remonter à l’impédance réelle du traitement. Le problème étudié consiste en la propagation d’une onde dans un tronçon rectangulaire traité sur sa face supérieure et la mesure des pressions acoustiques est réalisée sur le banc d’essai de l’Université Technologique de Compiègne avec un écoulement rasant. Un modèle de propagation d’ondes dans le conduit est développé via la technique du raccordement modal, afin de prédire la pression aux positions des microphones pour n’importe quelle valeur d’impédance. A partir de la mesure et de la simulation, la règle de Bayes peut être appliquée afin de construire la densité de probabilité a posteriori. Cette densité de probabilité est alors échantillonnée au travers d’un algorithme Évolutionnaire de Monte Carlo par Chaîne de Markov (EMCMC). L’intérêt principale de cette méthode, est d’obtenir de nombreuses d’informations statistiques sur les paramètres caractérisant l’impédance de surface comme leur distribution et leur corrélation. / Locally reactive acoustic liners such as honeycomb structures with perforated panels can be modeled with a surface impedance in standard numerical models. However, the characterization of this impedance is not always straightforward. Empirical models or standing wave tube measurements are generally used to get the behavior of these acoustic treatments. Unfortunately, these methods provide only an evaluation of the impedance under specific conditions. Moreover, the conditions of use can change significantly the acoustic liners behavior as grazing flow conditions or oblique incident waves. A characterization of locally reactive acoustic liners is presented here. Starting from a set of parameters and represents a surface impedance using empirical model, an inverse method based on Bayesian approach is used to return the surface impedance taking in consideration the real conditions of use. A rectangular duct treated by a liner on its upper face is considered and these conditions are similar to the experiment present at the Université de Technologie de Compiègne. This inverse method requires a direct model to predict the pressure at some microphone positions with any surface impedance. The model used in the following is based on the Mode-Matching method. From the direct analytical model, the Bayes'rule is then used to get the posterior probability density function of the estimated impedance. An Evolutionary Monte Carlo by Markov chain (EMCMC) method is used to sample this posterior probability density. This method provides not only the best set of parameters but also some statistical information for each parameter.
|
1038 |
Thermoformage du verre : développement numérique d'un modèle thermomécanique / Glass sagging process : numerical development of a thermomechanical modelLe Corre, Benjamin 16 January 2014 (has links)
Ce travail de thèse est dédié à la modélisation du thermoformage du verre. Le procédé consiste à déformer une plaque de verre sous l'effet de son propre poids. Posée sur un support et placée dans un four, la température de la pièce augmente et sa viscosité diminue, ce qui permet d'obtenir la forme désirée. Les simulations numériques, qui se basent sur un modèle thermomécanique, doivent permettre de mieux comprendre l'influence, sur le produit final, des différents paramètres d'essai, comme le chargement thermique, la géométrie et le matériau du moule ou encore la forme initiale de la pièce. Pour ce faire, le logiciel commercial Abaqus®, qui utilise une méthode de résolution des calculs par éléments finis, prend en charge les aspects mécaniques et conductifs. En revanche, comme le verre est un milieu semi-transparent, la modélisation du transfert radiatif est complexe et nécessite le développement d'un code se basant sur une méthode de Monte Carlo dite réciproque. La méthode a été validée en deux dimensions sur des cas-tests de la littérature scientifique. Le code a ensuite été implémenté dans le logiciel Abaqus® afin de réaliser des simulations de thermoformage sur moule et en suspension. Le verre est considéré comme un matériau élasto-visco-plastique obéissant à un modèle de Maxwell simple et la thermodépendance de la viscosité est prise en compte par une loi WLF. Une attention particulière a été accordée au modèle radiatif. Différentes hypothèses, issues de la littérature scientifique, sont testées afin de vérifier leur validité dans notre cas d'étude / This dissertation is dedicated to the modelling of the glass sagging process. This operation consists in forming a sheet or a plate of glass by heating it in a furnace. Glass temperature rises and reaches a work temperature at which viscosity is low enough to allow glass to sag under its own weight due to gravity. Numerical simulation, based on a thermomechanical model, can help to better understand the influence of the different parameters on the final product, such as the thermal loading, the shape and material of the mould or even the initial geometry of the glass plate. Thus, the commercial software Abaqus® is used to solve the problem by a finite elements method. However, it cannot render the complexity of the radiative heat transfer in glass. So, a Monte Carlo code based on a reciprocal method was developed and validated using benchmarks from the scientific literature. Then, the code was implemented into Abaqus® in order to simulate glass sagging on a mould or glass forming by the draping process. Glass is considered as an elasto-viscoplastic material which obeys a Maxwell model. Viscosity is dependant to temperature according to a WLF law. Special care was devoted to the radiative heat transfer. Different hypothesis are reviewed and performed to check their validity when applied to our numerical set-up
|
1039 |
A two-level Probabilistic Risk Assessment of cascading failures leading to blackout in transmission power systemsHenneaux, Pierre 19 September 2013 (has links)
In our society, private and industrial activities increasingly rest on the implicit assumption that electricity is available at any time and at an affordable price. Even if operational data and feedback from the electrical sector is very positive, a residual risk of blackout or undesired load shedding in critical zones remains. The occurrence of such a situation is likely to entail major direct and indirect economical consequences, as observed in recent blackouts. Assessing this residual risk and identifying scenarios likely to lead to these feared situations is crucial to control and optimally reduce this risk of blackout or major system disturbance. The objective of this PhD thesis is to develop a methodology able to reveal scenarios leading to a blackout or a major system disturbance and to estimate their frequencies and their consequences with a satisfactory accuracy.<p><p>A blackout is a collapse of the electrical grid on a large area, leading to a power cutoff, and is due to a cascading failure. Such a cascade is composed of two phases: a slow cascade, starting with the occurrence of an initiating event and displaying characteristic times between successive events from minutes to hours, and a fast cascade, displaying characteristic times between successive events from milliseconds to tens of seconds. In cascading failures, there is a strong coupling between events: the loss of an element increases the stress on other elements and, hence, the probability to have another failure. It appears that probabilistic methods proposed previously do not consider correctly these dependencies between failures, mainly because the two very different phases are analyzed with the same model. Thus, there is a need to develop a conceptually satisfying probabilistic approach, able to take into account all kinds of dependencies, by using different models for the slow and the fast cascades. This is the aim of this PhD thesis.<p><p>This work first focuses on the level-I which is the analysis of the slow cascade progression up to the transition to the fast cascade. We propose to adapt dynamic reliability, an integrated approach of Probabilistic Risk Analysis (PRA) developed initially for the nuclear sector, to the case of transmission power systems. This methodology will account for the double interaction between power system dynamics and state transitions of the grid elements. This PhD thesis also introduces the development of the level-II to analyze the fast cascade, up to the transition towards an operational state with load shedding or a blackout. The proposed method is applied to two test systems. Results show that thermal effects can play an important role in cascading failures, during the first phase. They also show that the level-II analysis after the level-I is necessary to have an estimation of the loss of supplied power that a scenario can lead to: two types of level-I scenarios with a similar frequency can induce very different risks (in terms of loss of supplied power) and blackout frequencies. The level-III, i.e. the restoration process analysis, is however needed to have an estimation of the risk in terms of loss of supplied energy. This PhD thesis also presents several perspectives to improve the approach in order to scale up applications to real grids.<p> / Doctorat en Sciences de l'ingénieur / info:eu-repo/semantics/nonPublished
|
1040 |
Nová metoda řešení Schrödingerovy rovnice / A new method for the solution of the Schrödinger equationKocák, Jakub January 2017 (has links)
Title: A new method for the solution of the Schrödinger equation Author: Jakub Kocák Department: Department of Physical and Macromolecular Chemistry Supervisor: doc. RNDr. Filip Uhlík, Ph.D. Abstract: In this thesis we study method for the solution of time-independent Schrö- dinger equation for ground state. The wave function, interpreted as probability density, is represented by samples. In each iteration we applied approximant of imaginary time propagator. Acting of the operator is implemented by Monte Carlo simulation. Part of the thesis is dedicated to methods of energy calculation from samples of wave function: method based on estimation of value of wave function, method of convolution with heat kernel, method of averaged energy weighed by wave function and exponential de- cay method. The method for the solution was used to find ground state and energy for 6-dimensional harmonic oscillator, anharmonic 3-dimensional octic oscillator and hydrogen atom. Keywords: imaginary time propagation, Monte Carlo method, variational principle, ground state 1
|
Page generated in 0.0518 seconds