• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 149
  • 32
  • 24
  • 18
  • 16
  • 9
  • 4
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 1
  • 1
  • Tagged with
  • 324
  • 90
  • 48
  • 43
  • 41
  • 40
  • 33
  • 33
  • 29
  • 29
  • 24
  • 22
  • 21
  • 21
  • 21
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Inflação e desemprego : ensaios sobre a curva de phillips para a economia brasileira

Oliveira, Luma de January 2017 (has links)
A presente tese, a partir de três ensaios, faz uso de diferentes especificações da curva de Phillips, para discutir distintos objetivos embasados em assuntos relevantes como o processo de determinação de preços e seus custos sociais para a economia brasileira. Neste sentido, o primeiro ensaio utiliza de uma equação de transferência para a especificação da curva de Phillips, a partir do método das variáveis instrumentais, para alcançar a taxa de desemprego não aceleradora da inflação (NAIRU). Este método, para dados trimestrais de 2000 a 2013, possibilitou identificar uma mudança no coeficiente de correlação entre a taxa de desemprego e a taxa de inflação, que passou de um trade-off (negativo) para uma relação positiva, além da permanência da taxa NAIRU acima da taxa de desemprego no período em questão. Preocupando-se com este resultado expressivo, o segundo ensaio se comprometeu em analisar se esse adveio de possíveis não linearidades presentes na curva, preocupação que já havia sido retratada pelo trabalho seminal de Phillips (1958), indicando que a relação da taxa de variação dos salários nominais e a taxa de desemprego seria altamente não linear. Nesse contexto, utilizando o modelo de vetores autorregressivos que considera a não-linearidade dos parâmetros (quebras estruturais), variáveis exógenas de controle (para contornar o problema de omissão de variáveis) para o período de 1995 a 2014, estimou-se a Curva de Phillips Novo-Keynesiana Hibrida (CPNKH) para identificar possíveis quebras estruturais para dados da economia brasileira. O modelo estimado foi caracterizado por um MSIH(2)VAR(1) e foi possível confirmar a não linearidade a partir do teste da razão de verossimilhança, com a identificação de dois períodos bem distintos ao longo da amostra. Além disso, foi verificada uma representatividade maior para o termo inercial (Backward Looking) indicando que as expectativas de inflação contribuem menos para a explicação do processo inflacionário recente da economia brasileira. Uma vez que um dos principais objetivos do Regime de Metas de Inflação (RMI) é ancorar a formação de preços a partir das expectativas futuras dos agentes econômicos, além disso, dada a não linearidade encontrada para dados da economia brasileira no segundo ensaio, e dada as diferentes significâncias, importâncias e patamares para os componentes da curva que representam as expectativas (futuras e passadas), o terceiro ensaio se comprometeu em, ao invés de confiar exclusivamente em uma única medida de tendência central, analisar os quantis de toda a distribuição condicional da variável resposta (taxa de inflação). Utilizando do método da regressão quantílica inversa, que utiliza os blocos em movimento bootstrap de Fitzenberger (1997), descrito por Chernozhukov e Hansen (2005), para o período de maio de 2001 a agosto de 2016, foi possível identificar a importância adquirida pelas expectativas futuras ao longo dos períodos analisados. Quando se faz estimações considerando somente a média condicional, o termo inercial é maior e significativo para praticamente todas as especificações e modelos apresentados. Utilizando do modelo da regressão quantílica inversa, por outro lado, é possível verificar que o termo Forward Looking ganha força e domina o Backward Looking nos três períodos analisados, em diferentes níveis de inflação, demonstrando, assim, o comportamento assimétrico (não linear) do processo inflacionário. Desta forma, foi possível mostrar o amadurecimento do objetivo do RMI e averiguar que os componentes expectacionais da CPNKH, para dados da economia brasileira, foram capazes de manter sua importância e significância em toda distribuição condicional no processo de determinação de preços recente. / The present dissertation, based on three essays, makes use of different specifications for the Phillips curve, to discuss different objectives based on relevant issues such as the process of price determination and its social costs for the Brazilian economy. In this sense, the first assay uses a transfer equation for the specification of the Phillips curve, using the instrumental variables method, to reach the non-accelerating inflation rate of unemployment (NAIRU). This method, for quarterly data from 2000 to 2013, enable the identification of a change in the coefficient of correlation between the unemployment rate and the inflation rate, which transitioned from a trade-off to a positive relation, in addition to the permanence of the NAIRU above the unemployment rate in the period in question. Concerning with this expressive result, the second essay undertook to analyze whether this resulted from possible non-linearities present in the curve, a concern that had already been portrayed by the seminal work of Phillips (1958), indicating that the relation of the rate of change of wages and the unemployment rate would be highly non-linear. In this context, using the autoregressive vector model that considers the non-linearity of the parameters (structural breaks), exogenous variables of control (to circumvent the problem of omission of variables) for the period from 1995 to 2014, it was estimated the Phillips New-Keynesian Hybrid (CPNKH) to identify possible structural breaks for Brazilian economy data. The estimated model was characterized by a MSIH (2) VAR (1) and it was possible to confirm the nonlinearity from the likelihood ratio test, with the identification of two distinct periods throughout the sample. In addition, it was verified a greater representativeness for the inertial term (Backward Looking), indicating that the expectations of inflation contributed less to the explanation of the recent inflationary process of the Brazilian economy. Since one of the main objectives of the Inflation Targeting Regime (ITR) is to anchor the formation of prices based on the future expectations of the economic agents, in addition, given the non-linearity found for the data of the Brazilian economy in the second essay, and considering the different significance, importance and thresholds for the components of the curve that represent (future and past) expectations, the third assay committed to, instead of relying solely on a single measure of central tendency, analyze the quantiles of the entire conditional distribution of the response variable (inflation rate). Using the reverse quantum regression method, which uses the Fitzenberger (1997) bootstrap blocks, described by Chernozhukov and Hansen (2005), for the period from May 2001 to August 2016, it was possible to identify the importance acquired by the expectations over the periods analyzed. When estimating only the conditional average, the inertial term is larger and significant for practically all the specifications and models presented. On the other hand, it is possible to verify the Forward Looking term gaining importance and dominating the Backward Looking in the three analyzed periods, at different levels of inflation, thus, demonstrating the asymmetric (non-linear) behavior of the inflationary process. In this way, it was possible to show the maturity of the objective of the ITR as to verify that the expected components of the CPNKH for the Brazilian economy data were able to maintain its importance and significance in all conditional distribution in the recent pricing process.
92

Using the eddy covariance technique to measure gas exchanges in a beef cattle feedlot

Prajapati, Prajaya January 1900 (has links)
Doctor of Philosophy / Department of Agronomy / Eduardo Alvarez Santos / Measurements of methane (CH₄) emissions from livestock production could provide invaluable data to reduce uncertainties in the global CH₄ budget and to evaluate mitigation strategies to lower greenhouse gas (GHG) emissions. The eddy covariance (EC) technique has recently been applied as an alternative to measure CH₄ emissions from livestock systems, but heterogeneities in the source area and fetch limitations impose challenges to EC measurements. The main objectives of this study were to: 1) assess the performance of a closed-path EC system for measuring CH₄, CO₂, and H₂0 fluxes; 2) investigate the spatial variability of the EC fluxes in a cattle feedlot using flux footprint analysis; 3) estimate CH₄ emission rates per animal (Fanimal) from a beef cattle feedlot using the EC technique combined with two footprint models: an analytical footprint model (KM01) and a parametrization of a Lagrangian dispersion model (FFP); and 4) compare CH₄ emissions obtained using the EC technique and a footprint analysis with CH₄ emission estimates provided by a well-stablished backward-Lagrangian stochastic (bLS) model. A closed-path EC system was used to measure CH₄, CO₂, and H₂0 fluxes. To evaluate the performance of this closed-path system, a well-stablished open-path EC system was also deployed on the flux tower to measure CO₂ and H₂0 exchange. Methane concentration measurements and wind data provided by that system were used to estimate CH₄ emissions using the bLS model. The performance assessment that included comparison of gas cospectra and measured fluxes from the two EC systems showed that the closed-path system was suitable for the EC measurements. Flux values were quite variable during the field experiment. A one-dimensional flux footprint model was useful to interpret some of the flux temporal and spatial dynamics. Then, a more comprehensive data analysis was carried out using two-dimensional footprint models (FFP and KM01) to interpret fluxes and scale fluxes measured at landscape to animal level. The monthly average Fanimal, calculated using the footprint weighed stocking density ranged from 83 to 125 g animal⁻¹ d⁻¹ (KM01) and 75–114 g animal⁻¹ d⁻¹ (FFP). These emission values are consistent with the results from previous studies in feedlots however our results also suggested that in some occasions the movement of animals on the pens could have affected CH₄ emission estimates. The results from the comparisons between EC and bLS CH₄ emission estimates show good agreement (0.84; concordance coefficient) between the two methods. In addition, the precision of the EC as compared to the bLS estimates was improved by using a more rigorous fetch screening criterion. Overall, these results indicate that the eddy covariance technique can be successfully used to accurately measure CH₄ emissions from feedlot cattle. However, further work is still needed to quantify the uncertainties in Fanimal caused by errors in flux footprint model estimates and animal movement.
93

Análise de escoamentos não-isotérmicos, incompressíveis, utilizando simulação de grandes escalas e o método de elementos finitos / Analysis of non-isotheemal,incompressible flows, using large eddy simulation and finite element method

Santos, Elizaldo Domingues dos January 2007 (has links)
Neste trabalho é apresentado um estudo numérico sobre escoamentos incompressíveis, não isotérmicos, bi e tridimensionais nos regimes laminar e turbulento através da Simulação de Grandes Escalas e da utilização do Método de Elementos Finitos. Para tornar isso possível, é implementada a equação da energia e os termos de forças de campo (empuxo) em um algoritmo numérico desenvolvido em FORTRAN, já existente, que simula escoamentos incompressíveis, isotérmicos, tridimensionais, nos regimes laminar e turbulento. O código desenvolvido abrange escoamentos onde as formas básicas de troca térmica ocorrem por difusão e advecção. No que tange a natureza da convecção térmica é possível analisar escoamentos com convecção forçada, mista ou natural. O método numérico empregado é o de elementos finitos (FEM) e a discretização espacial das equações que governam o fenômeno (continuidade, conservação da quantidade de movimento e conservação da energia) é realizada através do método de Galerkin. Para a análise dos termos temporais nos escoamentos transientes aplica-se o esquema temporal explícito de Taylor-Galerkin. O elemento finito utilizado é o hexaedro isoparamétrico de oito nós. É empregado o método da pseudo-compressibilidade com o objetivo de manter os termos derivados da pressão na equação da continuidade, pois essa ausência gera uma dificuldade adicional na discretização das equações. Para a abordagem da turbulência é empregada a simulação de grandes escalas (LES) com modelagem sub-malha clássica de Smagorinsky para a viscosidade e a difusividade turbulenta. Visando a melhoria no tempo de processamento foi utilizada integração explícita das matrizes dos elementos e a técnica de processamento paralelo OpenMP. São apresentados resultados para escoamentos com vários números de Reynolds, Prandtl e de Grashoff dos campos de velocidade, pressão e temperatura para escoamentos em cavidade bidimensional, nos regimes laminar e turbulento, e para o degrau tri-dimensional no regime laminar. As simulações para escoamentos em cavidades nos regimes laminar e na região de transição são comparados com os resultados de outros autores, se mostrando bastante satisfatórios, tanto no regime transiente como no permanente. Além disso, a inserção das forças de campo no código melhorou os resultados obtidos com o mesmo. As outras simulações são apresentadas como novos casos e tiveram um comportamento qualitativamente satisfatório. / A numerical study about non-isothermal, bi and three-dimensional, incompressible, laminar and turbulent flows is done in this work using Large Eddy Simulation and Finite Element Method. To became this possible, is implemented the energy equation and buoyance forces (in the Navier-Stokes equations) in a numerical algorithm, developed in FORTRAN, already existent, that simulate isothermal, three-dimensional, incompressible, laminar and turbulent flows. The developed code includes flows where the basic forms of heat transfer are diffusion or advection. About the nature of thermal convection it is possible to analyze the forced, mixed or natural convection flows. The numerical method used is the finite element method (FEM) and the spatial discretization of governing equations of phenomena (mass, conservation of momentum and conservation of energy) is done through Galerkin method. To analyze the time-dependent terms in transient flows is employed a time-explicit Taylor-Galerkin scheme. The finite element used is the isoparametric hexahedral with eight nodes. It is used the pseudo-compressibility method to keep the pressure terms in continuity equation, because without these terms there are additional difficulties to obtain the discretizated equations. Regarding the turbulence approach, it is employed the large eddy simulation (LES) and for subgrid-scales is used the classical Smagorinsky model to turbulent viscosity and diffusivity. To minimize the processing time is used explicit integration of element matrix and the multiprocessing technical OpenMP. Results are presented to a wide range of Reynolds, Prandtl and Grashoff numbers for velocity, pressure and temperature fields to laminar and turbulent, bi-dimensional, lid-driven cavity flow and a laminar three-dimensional backward-facing step. Simulations of lid-driven cavity flows in laminar and transitional regimes is compared with others authors results, presenting good agreement, in both transient and permanent regimes. Besides that, the implementation of buoyance forces in the present code improved the results obtained by it. The others simulations are presented like new cases and had qualitatively good behavior.
94

Inflação e desemprego : ensaios sobre a curva de phillips para a economia brasileira

Oliveira, Luma de January 2017 (has links)
A presente tese, a partir de três ensaios, faz uso de diferentes especificações da curva de Phillips, para discutir distintos objetivos embasados em assuntos relevantes como o processo de determinação de preços e seus custos sociais para a economia brasileira. Neste sentido, o primeiro ensaio utiliza de uma equação de transferência para a especificação da curva de Phillips, a partir do método das variáveis instrumentais, para alcançar a taxa de desemprego não aceleradora da inflação (NAIRU). Este método, para dados trimestrais de 2000 a 2013, possibilitou identificar uma mudança no coeficiente de correlação entre a taxa de desemprego e a taxa de inflação, que passou de um trade-off (negativo) para uma relação positiva, além da permanência da taxa NAIRU acima da taxa de desemprego no período em questão. Preocupando-se com este resultado expressivo, o segundo ensaio se comprometeu em analisar se esse adveio de possíveis não linearidades presentes na curva, preocupação que já havia sido retratada pelo trabalho seminal de Phillips (1958), indicando que a relação da taxa de variação dos salários nominais e a taxa de desemprego seria altamente não linear. Nesse contexto, utilizando o modelo de vetores autorregressivos que considera a não-linearidade dos parâmetros (quebras estruturais), variáveis exógenas de controle (para contornar o problema de omissão de variáveis) para o período de 1995 a 2014, estimou-se a Curva de Phillips Novo-Keynesiana Hibrida (CPNKH) para identificar possíveis quebras estruturais para dados da economia brasileira. O modelo estimado foi caracterizado por um MSIH(2)VAR(1) e foi possível confirmar a não linearidade a partir do teste da razão de verossimilhança, com a identificação de dois períodos bem distintos ao longo da amostra. Além disso, foi verificada uma representatividade maior para o termo inercial (Backward Looking) indicando que as expectativas de inflação contribuem menos para a explicação do processo inflacionário recente da economia brasileira. Uma vez que um dos principais objetivos do Regime de Metas de Inflação (RMI) é ancorar a formação de preços a partir das expectativas futuras dos agentes econômicos, além disso, dada a não linearidade encontrada para dados da economia brasileira no segundo ensaio, e dada as diferentes significâncias, importâncias e patamares para os componentes da curva que representam as expectativas (futuras e passadas), o terceiro ensaio se comprometeu em, ao invés de confiar exclusivamente em uma única medida de tendência central, analisar os quantis de toda a distribuição condicional da variável resposta (taxa de inflação). Utilizando do método da regressão quantílica inversa, que utiliza os blocos em movimento bootstrap de Fitzenberger (1997), descrito por Chernozhukov e Hansen (2005), para o período de maio de 2001 a agosto de 2016, foi possível identificar a importância adquirida pelas expectativas futuras ao longo dos períodos analisados. Quando se faz estimações considerando somente a média condicional, o termo inercial é maior e significativo para praticamente todas as especificações e modelos apresentados. Utilizando do modelo da regressão quantílica inversa, por outro lado, é possível verificar que o termo Forward Looking ganha força e domina o Backward Looking nos três períodos analisados, em diferentes níveis de inflação, demonstrando, assim, o comportamento assimétrico (não linear) do processo inflacionário. Desta forma, foi possível mostrar o amadurecimento do objetivo do RMI e averiguar que os componentes expectacionais da CPNKH, para dados da economia brasileira, foram capazes de manter sua importância e significância em toda distribuição condicional no processo de determinação de preços recente. / The present dissertation, based on three essays, makes use of different specifications for the Phillips curve, to discuss different objectives based on relevant issues such as the process of price determination and its social costs for the Brazilian economy. In this sense, the first assay uses a transfer equation for the specification of the Phillips curve, using the instrumental variables method, to reach the non-accelerating inflation rate of unemployment (NAIRU). This method, for quarterly data from 2000 to 2013, enable the identification of a change in the coefficient of correlation between the unemployment rate and the inflation rate, which transitioned from a trade-off to a positive relation, in addition to the permanence of the NAIRU above the unemployment rate in the period in question. Concerning with this expressive result, the second essay undertook to analyze whether this resulted from possible non-linearities present in the curve, a concern that had already been portrayed by the seminal work of Phillips (1958), indicating that the relation of the rate of change of wages and the unemployment rate would be highly non-linear. In this context, using the autoregressive vector model that considers the non-linearity of the parameters (structural breaks), exogenous variables of control (to circumvent the problem of omission of variables) for the period from 1995 to 2014, it was estimated the Phillips New-Keynesian Hybrid (CPNKH) to identify possible structural breaks for Brazilian economy data. The estimated model was characterized by a MSIH (2) VAR (1) and it was possible to confirm the nonlinearity from the likelihood ratio test, with the identification of two distinct periods throughout the sample. In addition, it was verified a greater representativeness for the inertial term (Backward Looking), indicating that the expectations of inflation contributed less to the explanation of the recent inflationary process of the Brazilian economy. Since one of the main objectives of the Inflation Targeting Regime (ITR) is to anchor the formation of prices based on the future expectations of the economic agents, in addition, given the non-linearity found for the data of the Brazilian economy in the second essay, and considering the different significance, importance and thresholds for the components of the curve that represent (future and past) expectations, the third assay committed to, instead of relying solely on a single measure of central tendency, analyze the quantiles of the entire conditional distribution of the response variable (inflation rate). Using the reverse quantum regression method, which uses the Fitzenberger (1997) bootstrap blocks, described by Chernozhukov and Hansen (2005), for the period from May 2001 to August 2016, it was possible to identify the importance acquired by the expectations over the periods analyzed. When estimating only the conditional average, the inertial term is larger and significant for practically all the specifications and models presented. On the other hand, it is possible to verify the Forward Looking term gaining importance and dominating the Backward Looking in the three analyzed periods, at different levels of inflation, thus, demonstrating the asymmetric (non-linear) behavior of the inflationary process. In this way, it was possible to show the maturity of the objective of the ITR as to verify that the expected components of the CPNKH for the Brazilian economy data were able to maintain its importance and significance in all conditional distribution in the recent pricing process.
95

Desenvolvimento de processo de extrusão e prensagem de rebites de aço inox

Vagliatti, Rafael Brufatto January 2017 (has links)
Este trabalho analisou as diferenças entre o processo de conformação de rebites de Alumínio da liga AA 5052 e de aço inoxidável das ligas ABNT 420, ABNT 430 e ABNT 302, os quais são utilizados em grande escala na indústria cuteleira. Levando em conta as particularidades de cada material em estudo, foram analisadas as forças de conformação, tensões, deformações e temperaturas. A partir delas buscou-se chegar a um modelo de processo viável para se obter rebites de Aço inoxidável. Apesar da fabricação do rebite de Alumínio ser menos crítica, no que diz respeito a força necessária para conformação, a qualidade do produto é inferior, quando se compara com o Aço inoxidável. Este confere maior resistência mecânica e resistência à corrosão. Para modelamento do processo desenvolvido com o Alumínio AA5052 e com as ligas de Aço inoxidável utilizadas utilizou-se o software de simulação por elementos finitos SIMUFACT 11.0. Os resultados das simulações com o aço inoxidável com temperaturas a morno demonstraram grande dependência da temperatura para obtenção de tensões e forças suportadas pelo ferramental. Alguns resultados alcançados com o aço inoxidável aquecido, quando se variaram as temperaturas de 25ºC até 500ºC, geraram o grau de tensões e esforços no ferramental menor ou igual à condição onde o Alumínio é conformado a frio. Também, critérios como resistência à corrosão foram determinantes para a aprovação das ligas de aço inoxidável 302 e 430 estudadas. Esse resultado confirmou o que é indicado na bibliografia, onde são recomendadas ligas austeníticas e ferríticas, ao invés de martensíticas, para a fabricação de produtos de aço inoxidável que exigem alta resistência à corrosão, como é o caso dos rebites. / This study analyzed the differences between the rivet manufacturing process made by Aluminum of alloy AA5052 and Stainless Steel of alloys AISI 420, AISI 430 and AISI 302, wich are widely used in the cutlery industry. Taking into account the particularities of both materials, it was analyzed forming forces, stresses, strains and temperatures in order to find a viable process to manufacture stainless steel rivets. Even the manufacturing of Aluminum rivets is less critical, regarding the forming forces, the quality of the product is inferior than the stainless steel, wich provides more mechanical and corrosion resistance. The study of the process of forming Aluminum AA5052 and Stainless Steel rivets was developed using the finite elements software SIMUFACT 11.0. The simulation results of the Stainless Steel with warm temperatures showed big influence of the temperature to obtain lower stresses and forces, wich are supported by the tools. Some results with heated Stainless steel, considering temperatures from 25ºC to 500ºC, resulted in lower stress and tool forces than in the Aluminum with cold temperatures. Also, criteria like corrosion resistance was very important to the approval of the Stainless Steel AISI 302 and AISI 430. Those results confirm the information available in the bibliography, where it is preferential austenitic and ferritic alloys of stainless steel instead of martensitic alloys, when used to manufacture stainless steel rivets, wich require high corrosion resistance.
96

Detecção e diagnóstico de falhas baseado em modelos empíricos no subespaço das variáveis de processo (EMPVSUB)

Bastidas, Maria Eugenia Hidalgo January 2018 (has links)
O escopo desta dissertação é o desenvolvimento de uma metodologia para a detecção e diagnóstico de falhas em processos industriais baseado em modelos empíricos no subespaço das variáveis do processo com expansão não linear das bases. A detecção e o diagnóstico de falhas são fundamentais para aumentar a segurança, confiabilidade e lucratividade de processos industriais. Métodos qualitativos, quantitativos e baseados em dados históricos do processo têm sido estudados amplamente. Para demonstrar as vantagens da metodologia proposta, ela será comparada com duas metodologias consideradas padrão, uma baseada em Análise de Componentes Principais (PCA) e a outra baseada em Mínimos Quadrados Parciais (PLS). Dois estudos de casos são empregados nessa comparação. O primeiro consiste em um tanque de aquecimento com mistura e o segundo contempla o estudo de caso do processo da Tennessee Eastman. As vantagens da metodologia proposta consistem na redução da dimensionalidade dos dados a serem usados para um diagnóstico adequado, além de detectar efetivamente a anormalidade e identificar as variáveis mais relacionadas à falha, permitindo um melhor diagnóstico. Além disso, devido à expansão das bases dos modelos é possível trabalhar efetivamente com sistemas não lineares, através de funções polinomiais e exponenciais dentro do modelo. Adicionalmente o trabalho contém uma metodologia de validação dos resultados da metodologia proposta, que consiste na eliminação das variáveis do melhor modelo obtido pelos Modelos Empíricos, através do método Backward Elimination. A metodologia proposta forneceu bons resultados na área do diagnóstico de falhas: conseguiu-se uma grande diminuição da dimensionalidade nos sistemas estudados em até 93,55%, bem como uma correta detecção de anormalidades e permitiu a determinação das variáveis mais relacionadas às anormalidades do processo. As comparações feitas com as metodologias padrões permitiram demonstrar que a metodologia proposta tem resultados superiores, pois consegue detectar as anormalidades em um espaço dimensional reduzido, detectando comportamentos não lineares e diminuindo incertezas. / Fault detection and diagnosis are critical to increasing the safety, reliability, and profitability of industrial processes. Qualitative and quantitative methods and process historical data have been extensively studied. This article proposes a methodology for fault detection and diagnosis, based on historical data of processes and the creation of empirical models with the expansion of nonlinear bases (polynomial and exponential bases) and regularization techniques. To demonstrate the advantages of the proposed approach, it is compared with two standard methodologies: Principal Components Analysis (PCA) and the Partial Least Squares (PLS), performed in two case studies: a mixed heating tank and the Tennessee Eastman Process. The advantages of the proposed methodology are the reduction of the dimensionality of the data used, in addition to the effective detection of abnormalities, identifying the variables most related to the fault. Furthermore, the work contains a methodology to validate the diagnosis results consisting of variable elimination from the best empirical models with the Backward Elimination algorithm. The proposed methodology achieved a promising performance, since it can decrease the dimensionality of the studied systems up to 93.55%, reducing uncertainties, and capturing nonlinear behaviors.
97

Análise de escoamentos não-isotérmicos, incompressíveis, utilizando simulação de grandes escalas e o método de elementos finitos / Analysis of non-isotheemal,incompressible flows, using large eddy simulation and finite element method

Santos, Elizaldo Domingues dos January 2007 (has links)
Neste trabalho é apresentado um estudo numérico sobre escoamentos incompressíveis, não isotérmicos, bi e tridimensionais nos regimes laminar e turbulento através da Simulação de Grandes Escalas e da utilização do Método de Elementos Finitos. Para tornar isso possível, é implementada a equação da energia e os termos de forças de campo (empuxo) em um algoritmo numérico desenvolvido em FORTRAN, já existente, que simula escoamentos incompressíveis, isotérmicos, tridimensionais, nos regimes laminar e turbulento. O código desenvolvido abrange escoamentos onde as formas básicas de troca térmica ocorrem por difusão e advecção. No que tange a natureza da convecção térmica é possível analisar escoamentos com convecção forçada, mista ou natural. O método numérico empregado é o de elementos finitos (FEM) e a discretização espacial das equações que governam o fenômeno (continuidade, conservação da quantidade de movimento e conservação da energia) é realizada através do método de Galerkin. Para a análise dos termos temporais nos escoamentos transientes aplica-se o esquema temporal explícito de Taylor-Galerkin. O elemento finito utilizado é o hexaedro isoparamétrico de oito nós. É empregado o método da pseudo-compressibilidade com o objetivo de manter os termos derivados da pressão na equação da continuidade, pois essa ausência gera uma dificuldade adicional na discretização das equações. Para a abordagem da turbulência é empregada a simulação de grandes escalas (LES) com modelagem sub-malha clássica de Smagorinsky para a viscosidade e a difusividade turbulenta. Visando a melhoria no tempo de processamento foi utilizada integração explícita das matrizes dos elementos e a técnica de processamento paralelo OpenMP. São apresentados resultados para escoamentos com vários números de Reynolds, Prandtl e de Grashoff dos campos de velocidade, pressão e temperatura para escoamentos em cavidade bidimensional, nos regimes laminar e turbulento, e para o degrau tri-dimensional no regime laminar. As simulações para escoamentos em cavidades nos regimes laminar e na região de transição são comparados com os resultados de outros autores, se mostrando bastante satisfatórios, tanto no regime transiente como no permanente. Além disso, a inserção das forças de campo no código melhorou os resultados obtidos com o mesmo. As outras simulações são apresentadas como novos casos e tiveram um comportamento qualitativamente satisfatório. / A numerical study about non-isothermal, bi and three-dimensional, incompressible, laminar and turbulent flows is done in this work using Large Eddy Simulation and Finite Element Method. To became this possible, is implemented the energy equation and buoyance forces (in the Navier-Stokes equations) in a numerical algorithm, developed in FORTRAN, already existent, that simulate isothermal, three-dimensional, incompressible, laminar and turbulent flows. The developed code includes flows where the basic forms of heat transfer are diffusion or advection. About the nature of thermal convection it is possible to analyze the forced, mixed or natural convection flows. The numerical method used is the finite element method (FEM) and the spatial discretization of governing equations of phenomena (mass, conservation of momentum and conservation of energy) is done through Galerkin method. To analyze the time-dependent terms in transient flows is employed a time-explicit Taylor-Galerkin scheme. The finite element used is the isoparametric hexahedral with eight nodes. It is used the pseudo-compressibility method to keep the pressure terms in continuity equation, because without these terms there are additional difficulties to obtain the discretizated equations. Regarding the turbulence approach, it is employed the large eddy simulation (LES) and for subgrid-scales is used the classical Smagorinsky model to turbulent viscosity and diffusivity. To minimize the processing time is used explicit integration of element matrix and the multiprocessing technical OpenMP. Results are presented to a wide range of Reynolds, Prandtl and Grashoff numbers for velocity, pressure and temperature fields to laminar and turbulent, bi-dimensional, lid-driven cavity flow and a laminar three-dimensional backward-facing step. Simulations of lid-driven cavity flows in laminar and transitional regimes is compared with others authors results, presenting good agreement, in both transient and permanent regimes. Besides that, the implementation of buoyance forces in the present code improved the results obtained by it. The others simulations are presented like new cases and had qualitatively good behavior.
98

A Study of Backward Compatible Dynamic Software Update

January 2015 (has links)
abstract: Dynamic software update (DSU) enables a program to update while it is running. DSU aims to minimize the loss due to program downtime for updates. Usually DSU is done in three steps: suspending the execution of an old program, mapping the execution state from the old program to a new one, and resuming execution of the new program with the mapped state. The semantic correctness of DSU depends largely on the state mapping which is mostly composed by developers manually nowadays. However, the manual construction of a state mapping does not necessarily ensure sound and dependable state mapping. This dissertation presents a methodology to assist developers by automating the construction of a partial state mapping with a guarantee of correctness. This dissertation includes a detailed study of DSU correctness and automatic state mapping for server programs with an established user base. At first, the dissertation presents the formal treatment of DSU correctness and the state mapping problem. Then the dissertation presents an argument that for programs with an established user base, dynamic updates must be backward compatible. The dissertation next presents a general definition of backward compatibility that specifies the allowed changes in program interaction between an old version and a new version and identified patterns of code evolution that results in backward compatible behavior. Thereafter the dissertation presents formal definitions of these patterns together with proof that any changes to programs in these patterns will result in backward compatible update. To show the applicability of the results, the dissertation presents SitBack, a program analysis tool that has an old version program and a new one as input and computes a partial state mapping under the assumption that the new version is backward compatible with the old version. SitBack does not handle all kinds of changes and it reports to the user in incomplete part of a state mapping. The dissertation presents a detailed evaluation of SitBack which shows that the methodology of automatic state mapping is promising in deal with real world program updates. For example, SitBack produces state mappings for 17-75% of the changed functions. Furthermore, SitBack generates automatic state mapping that leads to successful DSU. In conclusion, the study presented in this dissertation does assist developers in developing state mappings for DSU by automating the construction of state mappings with a correctness guarantee, which helps the adoption of DSU ultimately. / Dissertation/Thesis / Doctoral Dissertation Computer Science 2015
99

Desenvolvimento de processo de extrusão e prensagem de rebites de aço inox

Vagliatti, Rafael Brufatto January 2017 (has links)
Este trabalho analisou as diferenças entre o processo de conformação de rebites de Alumínio da liga AA 5052 e de aço inoxidável das ligas ABNT 420, ABNT 430 e ABNT 302, os quais são utilizados em grande escala na indústria cuteleira. Levando em conta as particularidades de cada material em estudo, foram analisadas as forças de conformação, tensões, deformações e temperaturas. A partir delas buscou-se chegar a um modelo de processo viável para se obter rebites de Aço inoxidável. Apesar da fabricação do rebite de Alumínio ser menos crítica, no que diz respeito a força necessária para conformação, a qualidade do produto é inferior, quando se compara com o Aço inoxidável. Este confere maior resistência mecânica e resistência à corrosão. Para modelamento do processo desenvolvido com o Alumínio AA5052 e com as ligas de Aço inoxidável utilizadas utilizou-se o software de simulação por elementos finitos SIMUFACT 11.0. Os resultados das simulações com o aço inoxidável com temperaturas a morno demonstraram grande dependência da temperatura para obtenção de tensões e forças suportadas pelo ferramental. Alguns resultados alcançados com o aço inoxidável aquecido, quando se variaram as temperaturas de 25ºC até 500ºC, geraram o grau de tensões e esforços no ferramental menor ou igual à condição onde o Alumínio é conformado a frio. Também, critérios como resistência à corrosão foram determinantes para a aprovação das ligas de aço inoxidável 302 e 430 estudadas. Esse resultado confirmou o que é indicado na bibliografia, onde são recomendadas ligas austeníticas e ferríticas, ao invés de martensíticas, para a fabricação de produtos de aço inoxidável que exigem alta resistência à corrosão, como é o caso dos rebites. / This study analyzed the differences between the rivet manufacturing process made by Aluminum of alloy AA5052 and Stainless Steel of alloys AISI 420, AISI 430 and AISI 302, wich are widely used in the cutlery industry. Taking into account the particularities of both materials, it was analyzed forming forces, stresses, strains and temperatures in order to find a viable process to manufacture stainless steel rivets. Even the manufacturing of Aluminum rivets is less critical, regarding the forming forces, the quality of the product is inferior than the stainless steel, wich provides more mechanical and corrosion resistance. The study of the process of forming Aluminum AA5052 and Stainless Steel rivets was developed using the finite elements software SIMUFACT 11.0. The simulation results of the Stainless Steel with warm temperatures showed big influence of the temperature to obtain lower stresses and forces, wich are supported by the tools. Some results with heated Stainless steel, considering temperatures from 25ºC to 500ºC, resulted in lower stress and tool forces than in the Aluminum with cold temperatures. Also, criteria like corrosion resistance was very important to the approval of the Stainless Steel AISI 302 and AISI 430. Those results confirm the information available in the bibliography, where it is preferential austenitic and ferritic alloys of stainless steel instead of martensitic alloys, when used to manufacture stainless steel rivets, wich require high corrosion resistance.
100

Detecção e diagnóstico de falhas baseado em modelos empíricos no subespaço das variáveis de processo (EMPVSUB)

Bastidas, Maria Eugenia Hidalgo January 2018 (has links)
O escopo desta dissertação é o desenvolvimento de uma metodologia para a detecção e diagnóstico de falhas em processos industriais baseado em modelos empíricos no subespaço das variáveis do processo com expansão não linear das bases. A detecção e o diagnóstico de falhas são fundamentais para aumentar a segurança, confiabilidade e lucratividade de processos industriais. Métodos qualitativos, quantitativos e baseados em dados históricos do processo têm sido estudados amplamente. Para demonstrar as vantagens da metodologia proposta, ela será comparada com duas metodologias consideradas padrão, uma baseada em Análise de Componentes Principais (PCA) e a outra baseada em Mínimos Quadrados Parciais (PLS). Dois estudos de casos são empregados nessa comparação. O primeiro consiste em um tanque de aquecimento com mistura e o segundo contempla o estudo de caso do processo da Tennessee Eastman. As vantagens da metodologia proposta consistem na redução da dimensionalidade dos dados a serem usados para um diagnóstico adequado, além de detectar efetivamente a anormalidade e identificar as variáveis mais relacionadas à falha, permitindo um melhor diagnóstico. Além disso, devido à expansão das bases dos modelos é possível trabalhar efetivamente com sistemas não lineares, através de funções polinomiais e exponenciais dentro do modelo. Adicionalmente o trabalho contém uma metodologia de validação dos resultados da metodologia proposta, que consiste na eliminação das variáveis do melhor modelo obtido pelos Modelos Empíricos, através do método Backward Elimination. A metodologia proposta forneceu bons resultados na área do diagnóstico de falhas: conseguiu-se uma grande diminuição da dimensionalidade nos sistemas estudados em até 93,55%, bem como uma correta detecção de anormalidades e permitiu a determinação das variáveis mais relacionadas às anormalidades do processo. As comparações feitas com as metodologias padrões permitiram demonstrar que a metodologia proposta tem resultados superiores, pois consegue detectar as anormalidades em um espaço dimensional reduzido, detectando comportamentos não lineares e diminuindo incertezas. / Fault detection and diagnosis are critical to increasing the safety, reliability, and profitability of industrial processes. Qualitative and quantitative methods and process historical data have been extensively studied. This article proposes a methodology for fault detection and diagnosis, based on historical data of processes and the creation of empirical models with the expansion of nonlinear bases (polynomial and exponential bases) and regularization techniques. To demonstrate the advantages of the proposed approach, it is compared with two standard methodologies: Principal Components Analysis (PCA) and the Partial Least Squares (PLS), performed in two case studies: a mixed heating tank and the Tennessee Eastman Process. The advantages of the proposed methodology are the reduction of the dimensionality of the data used, in addition to the effective detection of abnormalities, identifying the variables most related to the fault. Furthermore, the work contains a methodology to validate the diagnosis results consisting of variable elimination from the best empirical models with the Backward Elimination algorithm. The proposed methodology achieved a promising performance, since it can decrease the dimensionality of the studied systems up to 93.55%, reducing uncertainties, and capturing nonlinear behaviors.

Page generated in 0.057 seconds