• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 539
  • 16
  • 6
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • Tagged with
  • 568
  • 568
  • 341
  • 329
  • 280
  • 203
  • 131
  • 124
  • 121
  • 118
  • 114
  • 101
  • 101
  • 88
  • 85
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
231

Implementação e analise de ferramentas de quimica comoutacional aplicada ao desenvolvimento de processos / Implentation and analysis of computational chemistry tools applied to the processes development

Pinto, Jefferson Ferreira, 1972- 22 February 2006 (has links)
Orientador: Rubens Maciel Filho / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Qumica / Made available in DSpace on 2018-08-09T18:17:35Z (GMT). No. of bitstreams: 1 Pinto_JeffersonFerreira_D.pdf: 2614838 bytes, checksum: 839b2ff15752c4919e502eaf94e81822 (MD5) Previous issue date: 2006 / Resumo: As indústrias vêm mudando profundamente nos últimos anos, principalmente para redução de consumo energético, melhoria na qualidade dos produtos e adequação às leis ambientais. Estas mudanças podem ser auxiliadas pelas técnicas de modelagem e simulação, incluindo o detalhamento do modelo em nível atômico, quando então recebe o nome de química computacional. Diversas ferramentas abrangendo todas as áreas de química computacional, em sua maioria gratuitas ou de domínio público, foram implementadas em um microcomputador e analisadas para aplicação no desenvolvimento de processos. Foi analisado também o desempenho computacional em função do sistema operacional, que apresentou diferenças no desempenho de até 353% para cálculos de ponto flutuante, 18% para acesso a memória RAM e 67% para acesso a disco. Para melhorar o desempenho computacional, foi elaborado o projeto de um ambiente computacional paralelo de alto desempenho, no qual o custo ficou limitado à aquisição de hardware, de fácil disponibilidade no mercado, sendo que os softwares utilizados são gratuitos ou de domínio público / Abstract: lndustries are changing in the last years, mainly for reduction of energy consumption, improvement in the product quality and adequacy to the environmental laws. These changes can be assisted by the modeling and simulation techniques, including the detailing of the model in atomic leveI, when then it receives the name of computational chemistry. Several tools enclosing all the areas of computational chemistry, in its mainly free or of public domain, had been implemented in a microcomputer and analyzed for application in the processes development. The computational performance in function of the operational system was also analyzed, that presented differences in the performance of up to 353% for floating-point calculations, 18% for access the RAM memory and 67% for access the hard disk. To improve the computational performance the project of high performance computer system was elaborated, in which the cost was limited the acquisition of the hardware, of easy availability in the market, being that software used is free or of public domain / Doutorado / Desenvolvimento de Processos Químicos / Doutor em Engenharia Química
232

Inferencia Bayesiana para valores extremos / Bayesian inference for extremes

Bernardini, Diego Fernando de, 1986- 15 August 2018 (has links)
Orientador: Laura Leticia Ramos Rifo / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Computação Cientifica / Made available in DSpace on 2018-08-15T01:44:09Z (GMT). No. of bitstreams: 1 Bernardini_DiegoFernandode_M.pdf: 1483229 bytes, checksum: ea77acd21778728138eea2f27e59235b (MD5) Previous issue date: 2010 / Resumo: Iniciamos o presente trabalho apresentando uma breve introdução a teoria de valores extremos, estudando especialmente o comportamento da variável aleatória que representa o máximo de uma sequência de variáveis aleatórias independentes e identicamente distribuídas. Vemos que o Teorema dos Tipos Extremos (ou Teorema de Fisher-Tippett) constitui uma ferramenta fundamental no que diz respeito ao estudo do comportamento assintóticos destes máximos, permitindo a modelagem de dados que representem uma sequência de observações de máximos de um determinado fenômeno ou processo aleatório, através de uma classe de distribuições conhecida como família de distribuições de Valor Extremo Generalizada (Generalized Extreme Value - GEV). A distribuição Gumbel, associada ao máximo de distribuições como a Normal ou Gama entre outras, é um caso particular desta família. Torna-se interessante, assim, realizar inferência para os parâmetros desta família. Especificamente, a comparação entre os modelos Gumbel e GEV constitui o foco principal deste trabalho. No Capítulo 1 estudamos, no contexto da inferência clássica, o método de estimação por máxima verossimilhança para estes parâmetros e um procedimento de teste de razão de verossimilhanças adequado para testar a hipótese nula que representa o modelo Gumbel contra a hipótese que representa o modelo completo GEV. Prosseguimos, no Capítulo 2, com uma breve revisão em teoria de inferência Bayesiana obtendo inferências para o parâmetro de interesse em termos de sua distribuição a posteriori. Estudamos também a distribuição preditiva para valores futuros. No que diz respeito à comparação de modelos, estudamos inicialmente, neste contexto bayesiano, o fator de Bayes e o fator de Bayes a posteriori. Em seguida estudamos o Full Bayesian Significance Test (FBST), um teste de significância particularmente adequado para testar hipóteses precisas, como a hipótese que caracteriza o modelo Gumbel. Além disso, estudamos outros dois critérios para comparação de modelos, o BIC (Bayesian Information Criterion) e o DIC (Deviance Information Criterion). Estudamos as medidas de evidência especificamente no contexto da comparação entre os modelos Gumbel e GEV, bem como a distribuição preditiva, além dos intervalos de credibilidade e inferência a posteriori para os níveis de retorno associados a tempos de retorno fixos. O Capítulo 1 e parte do Capítulo 2 fornecem os fundamentos teóricos básicos deste trabalho, e estão fortemente baseados em Coles (2001) e O'Hagan (1994). No Capítulo 3 apresentamos o conhecido algoritmo de Metropolis-Hastings para simulação de distribuições de probabilidade e o algoritmo particular utilizado neste trabalho para a obtenção de amostras simuladas da distribuição a posteriori dos parâmetros de interesse. No capítulo seguinte formulamos a modelagem dos dados observados de máximos, apresentando a função de verossimilhança e estabelecendo a distribuição a priori para os parâmetros. Duas aplicações são apresentadas no Capítulo 5. A primeira delas trata das observações dos máximos trimestrais das taxas de desemprego nos Estados Unidos da América, entre o primeiro trimestre de 1994 e o primeiro trimestre de 2009. Na segunda aplicação estudamos os máximos semestrais dos níveis de maré em Newlyn, no sudoeste da Inglaterra, entre 1990 e 2007. Finalmente, uma breve discussão é apresentada no Capítulo 6. / Abstract: We begin this work presenting a brief introduction to the extreme value theory, specifically studying the behavior of the random variable which represents the maximum of a sequence of independent and identically distributed random variables. We see that the Extremal Types Theorem (or Fisher-Tippett Theorem) is a fundamental tool in the study of the asymptotic behavior of those maxima, allowing the modeling of data which represent a sequence of maxima observations of a given phenomenon or random process, through a class of distributions known as Generalized Extreme Value (GEV) family. We are interested in making inference about the parameters of this family. Specifically, the comparison between the Gumbel and GEV models constitute the main focus of this work. In Chapter 1 we study, in the context of classical inference, the method of maximum likelihood estimation for these parameters and likelihood ratio test procedure suitable for testing the null hypothesis associated to the Gumbel model against the hypothesis that represents the complete GEV model. We proceed, in Chapter 2, with a brief review on Bayesian inference theory. We also studied the predictive distribution for future values. With respect to the comparison of models, we initially study the Bayes factor and the posterior Bayes factor, in the Bayesian context. Next we study the Full Bayesian Significance Test (FBST), a significance test particularly suitable to test precise hypotheses, such as the hypothesis characterizing the Gumbel model. Furthermore, we study two other criteria for comparing models, the BIC (Bayesian Information Criterion) and the DIC (Deviance Information Criterion). We study the evidence measures specifically in the context of the comparison between the Gumbel and GEV models, as well as the predictive distribution, beyond the credible intervals and posterior inference to the return levels associated with fixed return periods. Chapter 1 and part of Chapter 2 provide the basic theoretical foundations of this work, and are strongly based on Coles (2001) and O'Hagan (1994). In Chapter 3 we present the well-known Metropolis-Hastings algorithm for simulation of probability distributions, and the particular algorithm used in this work to obtain simulated samples from the posterior distribution for the parameters of interest. In the next chapter we formulate the modeling of the observed data of maximum, presenting the likelihood function and setting the prior distribution for the parameters. Two applications are presented in Chapter 5. The first one deals with observations of the quarterly maximum for unemployment rates in the United States of America, between the first quarter of 1994 and first quarter of 2009. In the second application we studied the semiannual maximum of sea levels at Newlyn, in southwest of England, between 1990 and 2007. Finally, a brief discussion is presented in Chapter 6. / Mestrado / Estatistica / Mestre em Estatística
233

Metodologia de geração de mapas de qualidade com aplicação na seleção e otimização de estrategias de produção / Methodology of quality map generation with application in production strategies selection and optimization

Cavalcante Filho, Jose Sergio de Araujo 16 December 2005 (has links)
Orientadores: Denis Jose Schiozer, Rogerio Favinha Martini / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Mecanica / Made available in DSpace on 2018-08-10T21:15:17Z (GMT). No. of bitstreams: 1 CavalcanteFilho_JoseSergiodeAraujo_M.pdf: 2472913 bytes, checksum: 464d5c8a43739b69b30541844e3fe175 (MD5) Previous issue date: 2005 / Resumo: A definição e otimização de estratégias de produção são processos complexos porenvolverem diversas variáveis e possuírem um grande número de cenários possíveis. Mapas de qualidade são importantes ferramentas de auxílio à decisão, capazes de representar várias propriedades do reservatório que influenciam na produção do campo, sendo, portanto, úteis no processo de definição e otimização de estratégias de produção, como mostrado por outros autores que verificaram um aumento de eficiência nos estudos onde foram utilizados. Estes mapas integram as variáveis geológicas e de fluido do reservatório permitindo a identificação de regiões de maior ou menor potencial de produção, tanto para campos novos quanto para campos maduros. O método de geração de mapas de qualidade mais utilizado na literatura usa simulações numéricas de reservatórios considerando apenas um poço produtor que é simulado pelo tempo necessário para representar a produtividade de cada região, e cuja posição muda a cada simulação de modo a cobrir toda a malha do reservatório. Este método exige um grande número de simulações e enorme esforço computacional. O objetivo deste trabalho é propor metodologias confiáveis a fim de acelerar o processo de geração do mapa de qualidade. No presente trabalho diversos métodos de geração são desenvolvidos e avaliados segundo suas vantagens e desvantagens após um rigoroso estudo. O método da krigagem é utilizado para interpolar os pontos não simulados dos mapas gerados. São utilizados diferentes modelos de reservatório efunções-objetivo (forma de avaliação do potencial de cada região), além de diversos métodos de geração, para a realização de uma análise completa e confiável dos métodos propostos. Os resultados mostram que, dentre os métodos testados, o método que abre diversos produtores e injetores simultaneamente apresentou a melhor relação tempo de geração/confiabilidade. Foi proposta ainda uma variação do mapa de qualidade capaz de identificar o motivo pelo qual certas regiões apresentaram baixo potencial aumentando ainda mais a utilidade da ferramenta / Abstract: The definition and optimization of production strategies are complex processes that involve many variables and a great number of possible scenarios. Quality maps are important decision making tools capable of representing various reservoir properties which influence field production and, therefore, are important for the process of defining and optimizing production strategies, as demonstrated by other authors, who observed improvements in reservoir productivity in the cases they studied. These maps integrate geological and fluid variables, allowing for the identification of regions of greater or lower production potential, whether one is analyzing reservoirs in the development phase or mature fields. The most commonly used method to generate a quality map uses reservoir numerical simulations considering a unique production well, operating for enough time to represent the oil potential of each position. The well position is changed in each simulation run in order to cover all the reservoir grid area. This requires long running times and high computational effort depending on the problem features, thus rendering the process unfeasible. The objective of this work is to develop a reliable methodology which accelerates the generation process. Therefore, several generation methods were developed in the present work and the best technique was selected after a thorough analysis. The kriging interpolation method was used to interpolate the skipped points in all cases. Several reservoir models, quality map generation methods and objective functions (approach to evaluate the potential of each region) were used to validate the obtained results. Some methods have obtained a great reduction in the time and effort required to generate the maps. The results have shown that a method proposed in the present work, with fixed producers and injectors, is a reliable technique, yielding good results and presenting the best relation between generation time and reliability. In this work, a quality map capable of identifying the reason for the existence of regions with lower production potential was also proposed, improving the utility and application of this tool / Mestrado / Reservatórios e Gestão / Mestre em Ciências e Engenharia de Petróleo
234

Metodologia eficiente para análise de redes complexas de abastecimento de água / Efficient method for analysis of complex networks of water supply

Aranda Saldaña, Edwin Antonio, 1974- 25 August 2018 (has links)
Orientador: Paulo Vatavuk / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Civil, Arquitetura e Urbanismo / Made available in DSpace on 2018-08-25T09:08:31Z (GMT). No. of bitstreams: 1 ArandaSaldana_EdwinAntonio_D.pdf: 3905557 bytes, checksum: d00eb707af3e32709401a2fbbcc42709 (MD5) Previous issue date: 2014 / Resumo: Este trabalho apresenta o desenvolvimento de um modelo computacional, baseado no Método da Teoria Linear Modificado (MTLM) proposto por WOOD (1981) e a implementação do algoritmo do Gradiente proposto por TODINI e PILATI (1988). Além disso, apresentam-se comparações entre ambos para a análise de redes de abastecimento de água de grande porte. De acordo com a proposta deste trabalho, para criar um modelo baseado no MTLM tornou-se indispensável a definição prévia de um algoritmo para a seleção automática de circuitos. Para essa finalidade, adotou-se o algoritmo de Breadth First Search (BFS), baseado na teoria dos grafos e utilizado satisfatoriamente na seleção automática dos circuitos nas redes hidráulicas. A formulação adotada na implementação dos modelos estabelece as equações de continuidade nos nós e as equações de conservação de carga nas malhas em termos da vazão para cada elemento do sistema, apresentando um conjunto de equações não lineares que relacionam vazão com perda de carga. Uma vez linearizado o sistema de equações, o uso da biblioteca numérica de programação e otimização (KLU) na resolução de sistemas lineares mostrou-se eficiente para ambos os métodos analisados neste trabalho. A validade e a consistência dos resultados fornecidos pelo modelo proposto foram confirmadas através de sua comparação com o software Epanet 2.0. Os resultados obtidos através de simulações com a finalidade de comparar os resultados obtidos pelo MTLM e pelo método que utiliza o algoritmo do gradiente mostraram a eficiência de processamento e do tempo computacional de ambos os métodos. As comparações foram feitas utilizando redes de até 1000 tubos, fornecendo resultados inéditos, pois os trabalhos encontrados, conforme a revisão bibliográfica, utilizaram redes pequenas com número de tubos em torno de 10% do tamanho das redes estudadas neste trabalho / Abstract: This thesis presents for the first time the development of two computational models, one model is based on the Modified linear theory method (MTLM) that was initially proposed by WOOD in 1981 and the other model is based on the implementation of the Gradient algorithm that was early proposed by TODINI and PILATI in 1987. In addition, this thesis presents comparisons between both methods for the analysis of large pipe networks. In order to develop a model based on the MTLM method was first necessary to define an algorithm for the automatic selection of circuits. For this reason, the algorithm of Breadth First Search (BFS) was used which is based on the theory of graphs. This algorithm was successfully used for the automatic selection of circuits in hydraulic pipe networks. The methods adopted for the implementation of these models used continuity equations in the junctions as well as equations of conservation of energy in the loops in terms of flow for each element of the system that resulted in a set of non-linear equations, relating flow with head lose. Once the systems of equations were linearized, the use of the KLU library for the solution of linear systems showed promising results for both methods investigated in this thesis. The validity and consistency of the results obtained herein by the proposed models were also confirmed through comparisons with results obtained by the software Epanet version 2.0. The results obtained through simulations with the goal to compare with results obtained in this thesis with the MTLM method and the method that uses a gradient algorithm showed satisfactory results with an efficient processing and computational time by both methods. The comparisons were performed with up to 1000 tubes, gathering new and robust data when compared to available literature that used only a small network with a number of tubes of less than 10% / Doutorado / Recursos Hidricos, Energeticos e Ambientais / Doutor em Engenharia Civil
235

Elaboração de um modelo dinâmico de simulação estratégica para o treinamento de executivos em marketing

Goldschmidt, Paulo C. 31 March 1982 (has links)
Submitted by BKAB Setor Proc. Técnicos FGV-SP (biblioteca.sp.cat@fgv.br) on 2012-11-27T13:33:55Z No. of bitstreams: 1 1198202159.pdf: 8563037 bytes, checksum: 2e7828c03cdcf78601d9cc37876a57e2 (MD5) / O trabalho procura analisar a utilização dos modelos em geral dos modelos de simulação em particular como instrumento para o treinamento de executivos em marketing. Utilizando-se de conceitos e/ou teorias geralmente aceitos na área de marketing, foi elaborado um modelo de simulação que, à luz de dados secundários relevantes da realidade brasileira, pudesse servir como instrumento para (a) treinar executivos na 'prática' de marketing, (b) ensinar conceitos e teorias existentes na área de marketing, (c) representar os aspectos relevantes da realidade de marketing, e (d) treinar os executivos de marketing no processo de tomada de decisões. Colocado em teste junto a um grupo selecionado de executivos, o modelo de simulação foi considerado pelos mesmos como sendo um instrumento útil para o treinamento e/ou desenvolvimento de executivos na área de marketing.
236

Modelagem e simulação de motores a combustão interna por tecnicas da fluidinamica computacional (CFD)

Kasper, Fabio Roberto Sulzbacher 28 February 2003 (has links)
Orientador: Miton Mori / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Quimica / Made available in DSpace on 2018-08-03T12:23:41Z (GMT). No. of bitstreams: 1 Kasper_FabioRobertoSulzbacher_M.pdf: 4085192 bytes, checksum: 2cf3144aebecff7376c131b0335500eb (MD5) Previous issue date: 2003 / Resumo: A performance dos motores à combustão interna e suas emissões são governadas por processos fluido dinâmicos não-estacionários. Um bom entendimento destes processos é fundamental para melhorar as características de um motor, e as técnicas da Fluidodinâmica Computacional (CFD) são capazes de reproduzir informações detalhadas a respeito deste escoamento. Entretanto, simulações numéricas de motores ocorrem raramente, e um dos principais empecilhos destas simulações é justamente a dificuldade de abordar este problema, pois se esbarra com a complexidade geométrica do movimento do pistão e das válvulas, além das diversas interações fenomenológicas nos termofluidos presentes no cilindro. O objeto de estudo deste trabalho é a câmara de combustão de um motor FIAT Palio 1.0, com duas válvulas por cilindro e quatro estágios. O pacote computacional utilizado é o CFX-TASCflowTM, um código que se baseia no método dos volumes finitos, porém com abordagem em elementos finitos. Idealiza-se uma câmara de combustão bidimensional, e sua geometria é composta de um cilindro e duas válvulas, as quais, através de sub-rotinas personalizadas, movimentam-se em função do tempo. Para a turbulência, utiliza-se o modelo k-é padrão. Objetiva-se neste trabalho estudar a combustão de diferentes combustíveis nesta câmara de combustão. Os combustíveis avaliados são o metano e o heptano, em que dois mecanismos de reação, um de simples e outro de dupla etapa, são avaliados para o metano, e um mecanismo com quatro etapas de reação é avaliado para o heptano, perfazendo assim três estudos de caso. Apresentam-se resultados qualitativos da fluido dinâmica do motor trabalhando a frio, isto é, sem reação, em que gráficos vetoriais e iso-superfícies de temperatura e pressão são exibidos ao longo dos vários estágios do motor, além de resultados quantitativos, referentes aos três estudos de caso, na forma de gráficos de temperatura, pressão e concentração medidos na base do pistão. Os principais resultados demonstram que a metodologia empregada, baseada nas técnicas de CFD, mostra-se apta a reproduzir o comportamento fenomenológico desta câmara de combustão. E verifica-se ainda, poucas diferenças entre os mecanismos de reação e os combustíveis avaliados a partir do modelo de combustão utilizado neste trabalho / Abstract: Internal combustion engine performance and exhaust emissions are governed by unsteady fluid dynamic processes. A clear understanding of these processes is fundamental to improving engine characteristics. Computational Fluid Dynamics (CFD) techniques are able to produce detailed information throughout the flow. However, numerical simulations of internal combustion engines occur rarely and one of its main issues is the difficulty to approach this problem. There is a complex geometric issue about the piston and valves movement and there are several interactions between the fluids within the combustion chamber. The target case of this work is the four-stroke combustion chamber of a FIAT Palio 1.0 containing two valves for each cylinder. The computational code used is CFX- TASCflowTM which is a finite volume code based on a finite element approach. A two-dimensional combustion chamber has been built and its geometry is composed by a cylinder and two valves which, through customized subroutines, there is motion in function of time. The standard form of k - E: is used as the turbulence model. The objective of this work is to study several fuel combustion in this chamber. The chosen fuels are methane and heptane, where two reaction mechanisms, one single-step and another two-steps, are evaluated for methane, and a four-step overall mechanism is evaluated for the heptane, i.e. three study cases. First is presented the qualitative results of the engine fluid dynamics having no reaction, where vector plots and temperature and pressure isosurfaces are shown over the engine strokes. The quantitative results referring the three study cases are presented through temperature, pressure and concentration plots measured in the piston base. The main results demonstrate that the methodology used, based on the CFD techniques, reveals the aplicability of its modeling and the combustion chamber behavior. Also is verified few differences between the reaction mechanisms and the fuels evaluated from the combustion model used in this work / Mestrado / Desenvolvimento de Processos Químicos / Mestre em Engenharia Química
237

Modelagem sismica de corpos turbiditicos sinteticos gerados por simulação booleana

Sancevero, Sergio Sacani 04 February 2003 (has links)
Orientador: Armando Zaupa Remacre / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Mecanica e Instituto de Geociencias / Made available in DSpace on 2018-08-03T18:08:29Z (GMT). No. of bitstreams: 1 Sancevero_SergioSacani_M.pdf: 11223861 bytes, checksum: 4e1d81a7b97619bdeec6c0a58da2e74b (MD5) Previous issue date: 2003 / Resumo: A modelagem de corpos geológicos que possuam caracteristicas de depósitos turbidíticos é uma tarefa muito importante para a indústria de petróleo, principalmente no Brasil, onde os principais reservatórios estão situados nesse tipo de ambiente deposicional. A simulação booleana de objetos e a simulação seqüencial gaussiana são técnicas geoestatísticas que permitem a construção de modelos de referência sintéticos, porém com caracteristicas geológicas, que podem ser submetidos ao processo de modelagem sísmica que num trabalho de caracterização de reservatórios, podem ser usados para testar algoritmos de interpretação, inversão sísmica. Uma vantagem no caso de utilizar dados sintéticos para a realização de estudos de caracterização de reservatórios está na facilidade de interpretar os resultados e gerar conclusões objetivas, uma vez que se pode isolar os diversos fenômenos que afetam o resultado, analisando-os separadamente. Outra caracteristica, bastante importante dos dados sintéticos é que se tem um conjunto de dados de referência para a validação dos resultados. Nesta dissertação propõe-se mostrar a criação de um modelo de referência sintético para ser utilizado em estudos de caracterização de reservatórios. Como resultados, obtém-se um modelo geológico e petrofisico que represente as heterogeneidades de reservatórios petrolíferos do tipo turbidítico, bem como um modelo sísmico sintético onde as ferramentas de interpretação e inversão sísmica possam ser testadas e seus resultados avaliados de maneira concreta já que se tem um controle sobre as estruturas que se deseja interpretar. Conclui-se então a importância de um modelo de referência para estudos de caracterização de reservatórios e propõem-se como trabalhos futuros estudos relativos à conectividade dos corpos reservatório gerado, modelagem de outros sistemas deposicionais e estudos sobre o comportamento do fluxo no modelo sintético / Abstract: The geological modeling of bodies that have characteristics of turbidite reservoir is a very important task for the industry of oil, main1y in Brazil, where the main reservoirs are situated in that kind of deposicional environment. The simulation based in objects by Boolean model and the sequential gaussian simulation are the geostatistics techniques that permit the construction of synthetic reference models, however with geological characteristics, that can be submitted to the seismic modeling that in a work of reservoirs characterization, can be used to test algorithms of seismic interpretation and inversion. An advantage in case of use synthetic dataset for the achievement of studies of reservoir characterization is in the facility of interpret the results and generate objective conc1usions, since it can be isolated the diverse phenomena that affect the result, analyzing them separately. Another important characteristic, of the synthetic dataset is that has a reference model for the validation of results. In this dissertation the propose is the creation of a synthetic reference model to be used in studies of reservoir characterization. As results, obtain a petrophysical and geological model that represent the heterogeneities of turbidites oil-producing reservoirs, as well as a synthetic seismic model where the tools of seismic interpretation and inversion can be tested and his results can be evaluated of effective way since has a control about the structures that is desired interpreto Conc1ude itself then the importance of a model of reference for studies of reservoir characterization and propose as future works studies about the connectivity of the reservo ir bodies generated, modeling of others depositionals systems, and studies about fluid flow behavior / Mestrado / Reservatórios e Gestão / Mestre em Ciências e Engenharia de Petróleo
238

Um modelo baseado em conhecimento para simular rebanhos de bovinos de corte / A knowledge: based model to simulate beef cattle herds

Costa, Miguel Antonio Bueno da 20 December 2004 (has links)
Orientadores: Jurandir Fernando Ribeiro Fernandes e Pedro Franklin Barbosa / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-04T03:03:35Z (GMT). No. of bitstreams: 1 Costa_MiguelAntonioBuenoda_D.pdf: 867940 bytes, checksum: 9eb7e20ba75a4c1eb92eca6c7d29ff95 (MD5) Previous issue date: 2004 / Resumo: Esse trabalho apresenta uma abordagem sobre técnicas e ferramentas computacionais, utilizadas no desenvolvimento de modelos de simulação e, também, uma metodologia de suporte ao desenvolvimento de projetos. Um modelo de simulação de sistemas de produção de bovinos de corte foi desenvolvido utilizando conceitos de simulação de sistemas e de sistemas baseados em conhecimento com o suporte da metodologia SimuCAD: simulação e computação gráfica aplicadas ao estudo de sistemas produtivos, adaptada para atuar em sistemas de produção agropecuária. Este modelo representa um sistema de produção extensiva de bovinos de corte, genérico o suficiente para ser aplicado em qualquer rebanho. O modelo de simulação emula as políticas de manejo do pecuarista. O sistema computacional desenvolvido é amigável o suficiente para ser utilizado por pessoas leigas em informática. Os resultados extraídos desse simulador se aproximam muito dos dados associados ao sistema real de produção. O modelo foi testado e validado utilizando dados reais de uma fazenda produtora de gado de corte / Abstract: This work presents a developing approach of simulation models, including the necessary computing tools and techniques, and, also, a supporting methodology for project design and implementation. A beef cattle simulation model was developed by using the SimuCAD methodology (graphic computing and simulation applied to the study of productive systems). This methodology, based on system simulation concepts and knowledge-based systems, was adapted to perform in the cattle breeding business. The developed model represents an extensive beef cattle production system that is generic enough to be applied in any kind of cattle breeding. It simulates the managing politics of the cattle breeders and has the advantage of being friendly enough to be used by anyone, even by non-simulatingskilled persons. The model was tested and validated by using the actual data of a beef cattle production farm / Doutorado / Automação / Doutor em Engenharia Elétrica
239

Modelagem computacional para simulação de campo acústico de baixa frequência em salas / Computational modeling to simulate sound field of law frequency in rooms

Ismael Andrade Pimentel 22 August 2008 (has links)
Fundação Carlos Chagas Filho de Amparo a Pesquisa do Estado do Rio de Janeiro / O presente trabalho aborda a modelagem numérica da propagação das ondas sonoras em salas, a partir da avaliação do campo de pressão sonora quadrática na sala. Esta pesquisa apresenta um modelo computacional, baseado na abordagem modal de salas com geometria retangular, que melhora o desempenho do programa de simulação numérica de acústica de salas RAIOS 3 para as baixas frequencias. Inicialmente, foi feita uma análise modal teórica e experimental de uma sala retangular de paredes rígidas e não rígidas, onde se calcula pressão sonora de todos os modos como função da posição e do tempo. Para isso, determinam-se os números de onda e frequência de cada modo, ou seja, os autovalores e as autofrequências. O desempenho do modelo é avaliado a partir dos resultados obtidos com uma sala retangular e validado utilizando dados experimentais do PTB (Physikalisch-Technische Bundesanstalt), Alemanha, na intercomparação denominada Round Robin 3, fase 3. Os principais resultados foram obtidos pelo cálculo dos seguintes parâmetros: tempo de reverberação, (T30), fator de clareza (C80), difinição (D50) e o tempo de decaimento inicial, (EDT). / This article discusses the numerical modeling of the propagation of sound waves in rooms, from the assessment of the field of sound pressure quadratic in the room. This research presents a computational model, based on modal approach of rooms with rectangular geometry, which improves the performance of the program for numerical simulation of acoustics of rooms RAIOS 3 for low frequencies. Initially, there was a theoretical and experimental modal analysis of a rectangular room for non-rigid and rigid walls, where an estimated sound pressure of all modes as a function of place and time. For this, is determining of the wavenumbers and frequencies of each mode, namely the eigenvalues and eigenfrequencies. The performance of the model is assessed from results with a rec tangular room and validated using measurement data of the PTB (Physikalisch-Technische Bundesanstalt), Germany, an inter-comparison named Round Robin 3, phase - 3. The main results were obtained by calculating the following parameters: reverberation time, (T30), clarity factor, (C80), difinition, (D50) and early decay time.
240

Abordagens do tipo livre de jacobiana na simulação do escoamento de fluidos compressíveis em meios porosos / Abordagens do tipo livre de jacobiana na simulação do escoamento de fluidos compressíveis em meios porosos / Study of a Jacobian-free approach in the simulation of compressible fluid flows in porous media using a derivative-free spectral method / Study of a Jacobian-free approach in the simulation of compressible fluid flows in porous media using a derivative-free spectral method

Gisiane Santos Simão Ferreira 30 September 2014 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / O desenvolvimento de software livre de Jacobiana para a resolução de problemas formulados por equações diferenciais parciais não-lineares é de interesse crescente para simular processos práticos de engenharia. Este trabalho utiliza o chamado algoritmo espectral livre de derivada para equações não-lineares na simulação de fluxos em meios porosos. O modelo aqui considerado é aquele empregado para descrever o deslocamento do fluido compressível miscível em meios porosos com fontes e sumidouros, onde a densidade da mistura de fluidos varia exponencialmente com a pressão. O algoritmo espectral utilizado é um método moderno para a solução de sistemas não-lineares de grande porte, o que não resolve sistemas lineares, nem usa qualquer informação explícita associados com a matriz Jacobiana, sendo uma abordagem livre de Jacobiana. Problemas bidimensionais são apresentados, juntamente com os resultados numéricos comparando o algoritmo espectral com um método de Newton inexato livre de Jacobiana. Os resultados deste trabalho mostram que este algoritmo espectral moderno é um método confiável e eficiente para a simulação de escoamentos compressíveis em meios porosos. / The development of Jacobian-free software for solving problems formulated by nonlinear partial differential equations is of increasing interest to simulate practical engineering processes. This work uses the so-called derivative-free spectral algorithm for nonlinear equations in the simulation of flows in porous media. The model considered here is the one employed to describe the displacement of miscible compressible fluid in porous media with point sources and sinks, where the density of the fluid mixture varies exponentially with the pressure. The spectral algorithm used is a modern method for solving large-scale nonlinear systems, which does not solve linear systems, nor use any explicit information associated with the Jacobin matrix, being a Jacobian-free approach. Two dimensional problems are presented, along with numerical results comparing the spectral algorithm to a well-developed Jacobian-free inexact Newton method. The results of this paper show that this modern spectral algorithm is a reliable and efficient method for simulation of compressible flows in porous media.

Page generated in 0.0549 seconds