• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2156
  • 75
  • 27
  • 13
  • 13
  • 13
  • 13
  • 10
  • 9
  • 8
  • 8
  • 8
  • 3
  • 1
  • 1
  • Tagged with
  • 2285
  • 1019
  • 1011
  • 833
  • 439
  • 395
  • 384
  • 338
  • 337
  • 332
  • 273
  • 264
  • 256
  • 244
  • 234
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
311

Estimação dos intervalos de confiança para a função perda de Taguchi, razão sinal ruído e dos índices de capacidade potencial do processo, por meio de método de reamostragem

Marques, Marcos Augusto Mendes January 2015 (has links)
Orientador : Prof. Dr. Anselmo Chaves Neto / Tese (doutorado) - Universidade Federal do Paraná, Setor de Tecnologia, Programa de Pós-Graduação em Métodos Numéricos em Engenharia. Defesa: Curitiba, 24/04/2015 / Inclui referências : f. 136-141 / Resumo: A competitividade na atualidade se faz presente em diversos ramos da manufatura de produtos e uma companhia para ser competitiva neste meio deve fazer investimentos constantes em qualidade. Investir em qualidade envolve uma complexa rede que vai desde a satisfação do cliente ao adquirir um produto, modernização de maquinário por parte das indústrias, preocupação com o meio ambiente e treinamento constante das partes que compõem uma empresa, ou seja, da alta diretoria até ao chão de fábrica. Se faz necessário a conscientização de que alta qualidade está associada a baixos custos, e isto é possível, pela utilização de uma ferramenta utilizada na área de engenharia de qualidade denominada de função perda média de Taguchi. Pela sua utilização, pode-se medir a perda monetária existente devido ao desvio de uma característica funcional do seu valor nominal (target), mesmo que tal característica se encontre dentro dos limites de especificação. Assim sendo, se a companhia prezar pela manufatura de seus produtos, centralizando e minimizando a variabilidade da produção de determinada característica funcional, prova-se pela função perda média de Taguchi que alta qualidade efetivamente está atrelada a baixos custos. Outra ferramenta utilizada na área de qualidade é a razão sinal-ruído, idealizada também por Taguchi, onde a mesma mensura a robustez de um produto frente a fontes de ruído, pois quanto mais insensível a essas fontes um produto for, mais robusto e confiável ele será. Confiabilidade e robustez estão altamente correlacionadas a produtos de alta qualidade. Como esses indicadores não possuem estimação por intervalos de confiança e não se conhecem suas distribuições de probabilidade, se propõe nessa tese, a utilização e análise do método estatístico de reamostragem bootstrap para estimação das suas variabilidades, suas distribuições bootstrap e seus intervalos de confiança através de simulação. O estudo se estende com os mesmos objetivos de estimação para os índices de capacidade potencial do processo C p, C k e C pkm , e , onde os mesmos são muito conhecidos e utilizados como ferramentas do controle estatístico de qualidade. Como suas distribuições não são conhecidas aplicou-se o método bootstrap para estimação das mesmas bem como para seus intervalos de confiança. Efetuaram-se cinco técnicas de estimação de intervalos de confiança a bootstrap, onde cada uma tem sua peculiaridade e condição para validação do seu uso. Para se efetuar as simulações e cálculos propostos, utilizou-se de um programa (função) cujo algoritmo foi desenvolvido no software Matlab. Aplicou-se o algoritmo em três amostras, onde cada uma delas representa uma das características funcionais possíveis, obtendo para as mesmas as suas respectivas distribuições bootstrap, variabilidade e intervalos de confiança. O método se mostrou confiável para os cálculos propostos, sendo que se obtiveram com êxito todos os objetivos propostos. Palavras-chave: Qualidade. Função perda de Taguchi. Razão sinal-ruído. Capacidade de processo. Distribuição bootstrap. Intervalo de confiança boostrap. / Abstract: The competitiveness nowadays it is made present in several branches of the manufacture of products and a company to be competitive in this environment should make constant investments in quality. To invest in quality involves a complex network that is going from the customer satisfaction when acquiring a product, machinery modernization on the part of the industry, concern with the environment and constant training of all the parts that a company has, in other words, from the high management to the factory ground. It is necessary the understanding that high quality is associated at low costs, and that is possible, by the use of a tool in the area of engineering of quality denominated of medium loss function of Taguchi. Definitely for its use, the existing monetary loss can be measured due to the variances of a functional characteristic of its nominal value (target), even if such characteristic is inside of the specification limits. In other words, if the company respects for the manufacture of their products, centralizing and minimizing the variability of production of the certain functional characteristic, it is proven by the medium loss function of Taguchi that high quality indeed is tied at low costs. Besides that, another tool used in the quality area is the signal to noise ratio, also idealized by Taguchi, where its measures the robustness of a product before to noise sources, because the more insensitive to those sources a product are, more robust and reliable it will be. Reliability and robustness are highly correlated to products of high quality. As those indicators has not estimate for trusty intervals and it does not know each other its distributions of probability, it is proposed in this doctoral dissertation, the utilization and analysis of the statistical method of re-sample bootstrap for the estimation of their variability, its distributions bootstrap and its trust intervals through simulation. The study extends with the same estimate objectives for the rates of potential capacity of the process C p , C pk and C pkm , by which the same ones are very known and used as tools of the statistical control of quality. Such as its distributions are not known the method bootstrap was applied to estimate of the same ones as well as for its trusty intervals. Therefore was conducted five techniques of estimate of trusty intervals the bootstrap, by which one has its peculiar and condition for validation of its use. So to make the simulations and proposed calculations, it was used by a program (function) whose algorithm was developed in the Matlab software. The algorithm was applied in three samples, by which one of them represents one of the possible functional characteristics, obtaining for the same ones its respective distributions bootstrap, variability and trusty intervals. The method was shown reliable for the proposed calculations, and it was obtained with success all the proposed objectives. Keywords: Quality. Taguchi's loss function. Signal to noise ratio. Process capability. Bootstrap distribution. Bootstrap confidence interval.
312

Identificação, monitoramento e previsão de tempestades elétricas

Kleina, Mariana January 2015 (has links)
Orientador : Prof. Dr. Luiz Carlos Matioli / Tese (doutorado) - Universidade Federal do Paraná, Setor de Tecnologia, Programa de Pós-Graduação em Métodos Numéricos em Engenharia. Defesa: Curitiba, 10/12/2015 / Inclui referências : f. 103-107 / Área de concentração : Programação matemática / Resumo: Este trabalho tem por objetivo propor um sistema de identificação, monitoramento e previsão de tempestades elétricas em uma região de linha de transmissão de energia do Brasil utilizando apenas informações de descargas atmosféricas. Na etapa de identificação das tempestades é utilizada clusterização espacial/temporal das descargas, para o monitoramento são realizadas conexões entre clusters de acordo com a velocidade de deslocamento dos núcleos das tempestades e finalmente a previsão uma hora à frente é obtida por meio de extrapolação de dados. As variáveis das tempestades elétricas acompanhadas e previstas são: posição central (latitude e longitude), número médio de descargas por hora, distribuição espacial das descargas dentro das tempestades e média do valor absoluto do pico de corrente de descargas que compõem as tempestades. O sistema é calibrado por meio da otimização de um problema irrestrito baseado em índices de monitoramento e previsão. Exemplos práticos são apresentados para a região piloto, onde diversos gráficos ilustram o produto do sistema proposto. Palavras-chave: Análise de Agrupamento. Convergent Data Sharpening. Descargas Atmosféricas. Tempestades Elétricas. Previsão à Curto Prazo. / Abstract: This work aims to propose a system of identification, monitoring and forecasting of electrical storms on a region of Brazilian power transmission line using lightning information only. In the step of storms identification is used spatial/temporal lightning clustering, to monitoring are performed connections between clusters according to the displacement speed of the storms cores and finally the forecast one hour ahead is obtained by data extrapolation. The monitored and forecasted variables of the electrical storms are: center position (latitude and longitude), average number of lightning per hour, spatial distribution of lightning into the storms and average of the absolute value of the peak current of lightning that comprise the storms. The system is calibrated by optimizing an unrestricted problem based on monitoring and forecasting indexes. Practical examples are presented to the pilot region and several graphs illustrate the proposed system product. Key-words: Cluster Analysis. Convergent Data Sharpening. Lightning Strokes. Electrical Storms. Forecast Short Term.
313

Aplicação da análise fatorial na determinação de indicadores dos municípios paranaenses

Santos, Michely Castro dos January 2016 (has links)
Orientador : Prof. Dr. Jair Mendes Marques / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Tecnologia, Programa de Pós-Graduação em Métodos Numéricos em Engenharia. Defesa: Curitiba, 30/08/2016 / Inclui referências : f.70-72 / Área de concentração: Programação matemática / Resumo: No presente estudo, são aplicadas técnicas estatísticas multivariadas para alguns dados disponibilizados pelo Instituto Paranaense de Desenvolvimento Econômico e Social (IPARDES) do Anuário Estatístico do Estado do Paraná de 2013, com a finalidade de obter informações sobre os municípios do estado, a fim de facilitar a aplicação de mecanismos e tomada de decisão para o planejamento governamental, gerando promoção e alocação de investimentos, minimizando as distorções entre os municípios. Os resultados encontrados com a aplicação dos métodos estatísticos foram preparados através do Excel e do software MATLAB. A metodologia adotada inicia-se com a seleção das variáveis originais. Foram estudadas 62 variáveis entre as trabalhadas no Anuário e por conter variáveis com observações faltantes, foram usados dois critérios. O primeiro, descarta a variável, caso tenha muitas observações faltantes e o segundo, calcula, de acordo com o número de habitantes dos municípios, a média aritmética entre os valores informados, para completar os dados. Assim, restaram 58 variáveis originais e a matriz de dados ficou composta por 399 linhas, as quais representam as observações referentes aos municípios paranaenses e 58 colunas, correspondentes às variáveis. Verificou-se que a matriz em estudo não apresenta dados normalizados e por conta disso, não foi aplicado o teste de esfericidade de Bartlett. Através do teste de KMO foi confirmado que o modelo de análise fatorial poderia ser aplicado à matriz de dados. Sendo assim, os resultados obtidos por meio da análise fatorial em conjunto com a análise de componentes principais, determinaram 3 fatores sintéticos, indicando as variáveis mais correlacionadas, as quais contém informações sobre a economia, a infraestrutura, a educação, o indicador humano, sociais e demográficos. Com os escores fatoriais finais ponderados foi possível traçar o perfil de cada município, permitindo estabelecer quais apresentaram alto ou baixo potencial de desenvolvimento em relação a cada fator extraído. Por meio da rotação Varimax, determinou-se que os três fatores são responsáveis por pouco mais de 72% da explicação do sistema. Através dos escores fatoriais finais foram calculados o indicador sintético para cada município e por fim, o ranqueamento, em ordem decrescente de valores, em relação ao potencial de desenvolvimento referente aos fatores estudados. Palavras-chave: Estatística multivariada, análise fatorial, análise de componentes principais, escores fatoriais, municípios paranaenses / Abstract: In the present study, we applied multivariate statistical techniques to the data provided by the Paraná Institute for Economic and Social Development (IPARDES) Statistical 2013 Paraná State Yearbook, in order to obtain information about the cities of the state to facilitate the application mechanisms and decision-making for government planning, producing and promoting investment allocation, minimizing distortions among municipalities. The results with the application of statistical methods were prepared by Excel and MATLAB software. The methodology starts with the selection of the original variables. We studied 62 variables among the ones in the directory and since there were variables with missing observations, two criteria were used. The first, rules out the variable if there are many missing observations and the second calculates, according to the number of inhabitants of the municipalities, the arithmetic mean of the values given to complete the data. As a result, 58 original variables remain, and data matrix ended up being composed of 399 lines, which represents the observations relating to municipal districts and 58 columns corresponding to the variables. It was found that the matrix study has no standardized data and because of that, the Bartlett sphericity test was not applied. Through KMO test it was confirmed that the factor analysis model could be applied to the data matrix. Thus, the results obtained through factor analysis in conjunction with the principal components analysis, determined three synthetic factors, and the most correlated variables, which contains information about the economy, infrastructure, education, human indicator, social and demographic. With the final weighted factor scores it was possible to trace the profile of each city, allowing to establish which had high or low development potential for each factor extracted. Through Varimax rotation, it was determined that three factors are responsible for slightly over 72% of the system's explanation. Through the final factor scores, the calculated synthetic indicator for each municipality was calculated, and finally the ranking, in descending order of values in relation to the development potential regarding the factors studied. Key-words: Multivariate analysis, factor analysis, principal component analysis, factor scores, municipal districts
314

Método Grid-Quadtree para seleção de parâmetros do algoritmo support vector classification (SVC)

Beltrami, Monica January 2016 (has links)
Orientador : Prof. Dr. Arinei Carlos Lindbeck da Silva / Tese (doutorado) - Universidade Federal do Paraná, Setor de Tecnologia, Programa de Pós-Graduação em Métodos Numéricos em Engenharia. Defesa: Curitiba, 01/06/2016 / Inclui referências : f. 143-149 / Área de concentração : Programação matemática / Resumo: O algoritmo Support Vector Classification (SVC) é uma técnica de reconhecimento de padrões, cuja eficiência depende da seleção de seus parâmetros: constante de regularização C, função kernel e seus respectivos parâmetros. A escolha equivocada dessas variáveis impacta diretamente na performance do algoritmo, acarretando em fenômenos indesejáveis como o overfitting e o underfitting. O problema que estuda a procura de parâmetros ótimos para o SVC, em relação às suas medidas de desempenho, é denominado seleção de modelos do SVC. Em virtude do amplo domínio de convergência do kernel gaussiano, a maioria dos métodos destinados a solucionar esse problema concentra-se na seleção da constante C e do parâmetro ? do kernel gaussiano. Dentre esses métodos, a busca por grid é um dos de maior destaque devido à sua simplicidade e bons resultados. Contudo, por avaliar todas as combinações de parâmetros (C, ?) dentre o seu espaço de busca, a mesma necessita de muito tempo de processamento, tornando-se impraticável para avaliação de grandes conjuntos de dados. Desta forma, o objetivo deste trabalho é propor um método de seleção de parâmetros do SVC, usando o kernel gaussiano, que combine a técnica quadtree à busca por grid, para reduzir o número de operações efetuadas pelo grid e diminuir o seu custo computacional. A ideia fundamental é empregar a quadtree para desenhar a boa região de parâmetros, evitando avaliações desnecessárias de parâmetros situados nas áreas de underfitting e overfitting. Para isso, desenvolveu-se o método grid-quadtree (GQ), utilizando-se a linguagem de programação VB.net em conjunto com os softwares da biblioteca LIBSVM. Na execução do GQ, realizou-se o balanceamento da quadtree e criou-se um procedimento denominado refinamento, que permitiu delinear a curva de erro de generalização de parâmetros. Para validar o método proposto, empregaram-se vinte bases de dados referência na área de classificação, as quais foram separadas em dois grupos. Os resultados obtidos pelo GQ foram comparados com os da tradicional busca por grid (BG) levando-se em conta o número de operações executadas por ambos os métodos, a taxa de validação cruzada (VC) e o número de vetores suporte (VS) associados aos parâmetros encontrados e a acurácia do SVC na predição dos conjuntos de teste. A partir das análises realizadas, constatou-se que o GQ foi capaz de encontrar parâmetros de excelente qualidade, com altas taxas VC e baixas quantidades de VS, reduzindo em média, pelo menos, 78,8124% das operações da BG para o grupo 1 de dados e de 71,7172% a 88,7052% para o grupo 2. Essa diminuição na quantidade de cálculos efetuados pelo quadtree resultou em uma economia de horas de processamento. Além disso, em 11 das 20 bases estudadas a acurácia do SVC-GQ foi superior à do SVC-BG e para quatro delas igual. Isso mostra que o GQ é capaz de encontrar parâmetros melhores ou tão bons quanto os da BG executando muito menos operações. Palavras-chave: Seleção de modelos do SVC. Kernel gaussiano. Quadtree. Redução de operações. / Abstract: The Support Vector Classification (SVC) algorithm is a pattern recognition technique, whose efficiency depends on its parameters selection: the penalty constant C, the kernel function and its own parameters. A wrong choice of these variables values directly impacts on the algorithm performance, leading to undesirable phenomena such as the overfitting and the underfitting. The task of searching for optimal parameters with respect to performance measures is called SVC model selection problem. Due to the Gaussian kernel wide convergence domain, many model selection approaches focus in determine the constant C and the Gaussian kernel ? parameter. Among these, the grid search is one of the highlights due to its easiest way and high performance. However, since it evaluates all parameters combinations (C, ?) on the search space, it requires high computational time and becomes impractical for large data sets evaluation. Thus, the aim of this thesis is to propose a SVC model selection method, using the Gaussian kernel, which integrates the quadtree technique with the grid search to reduce the number of operations performed by the grid and its computational cost. The main idea of this study is to use the quadtree to determine the good parameters region, neglecting the evaluation of unnecessary parameters located in the underfitting and the overfitting areas. In this regard, it was developed the grid-quadtree (GQ) method, which was implemented on VB.net development environment and that also uses the software of the LIBSVM library. In the GQ execution, it was considered the balanced quadtree and it was created a refinement procedure, that allowed to delineate the parameters generalization error curve. In order to validate the proposed method, twenty benchmark classification data set were used, which were separated into two groups. The results obtained via GQ were compared with the traditional grid search (GS) ones, considering the number of operations performed by both methods, the cross-validation rate (CV) and the number of support vectors (SV) associated to the selected parameters, and the SVC accuracy in the test set. Based on this analyzes, it was concluded that GQ was able to find excellent parameters, with high CV rates and few SV, achieving an average reduction of at least 78,8124% on GS operations for group 1 data and from 71,7172% to 88,7052% for group 2. The decrease in the amount of calculations performed by the quadtree lead to savings on the computational time. Furthermore, the SVC-GQ accuracy was superior than SVC-GS in 11 of the 20 studied bases and equal in four of them. These results demonstrate that GQ is able to find better or as good as parameters than BG, but executing much less operations. Key words: SVC Model Selection. Gaussian kernel. Quadtree. Reduction Operations
315

Controle de qualidade em dados de radar polarimétrico com apoio de visualizador interativo de dados

Seluzniak, Renan Henrique Luz January 2016 (has links)
Orientador : Prof. Dr. Sergio Scheer / Coorientador : Prof. Dr. Cesar Augustus Assis Beneti / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Tecnologia, Programa de Pós-Graduação em Métodos Numéricos em Engenharia. Defesa: Curitiba, 05/07/2016 / Inclui referências : f.99-104 / Área de concentração: Programação matemática / Resumo: Radares meteorológicos têm a característica de possibilitar a previsão de eventos severos à curto prazo. Porém, a qualidade dos dados provenientes de radares é comumente afetada por sinais indesejados, que não correspondem à precipitação, ocasionados pela presença de insetos e pássaros, topografia e outras interferências. Nesse contexto, sistemas de processamento e visualização interativa possuem grande importância, pois auxiliam a análise e consequente tomada de decisão com base na observação desses dados. Considerando o desenvolvimento da tecnologia de radares ocorrida nos últimos anos, processar e visualizar grandes quantidades de dados tem se tornado um desafio. Este trabalho trata do desenvolvimento de um sistema interativo para processamento e visualização de dados de radares meteorológicos, bem como a implementação de dois algoritmos para o controle da qualidade dos dados (filtros). A visualização interativa e o controle de qualidade desses dados têm particular importância para que analistas possam, de forma rápida e eficaz, extrair informações úteis e tomar decisões. Os dois filtros elaborados se baseiam em trabalhos existentes na literatura. O primeiro utiliza apenas a refletividade para correção dos dados e o segundo utiliza as novas informações disponibilizadas pelo radar polarimétrico dual. As comparações foram realizadas com a comparação com o algoritmo de classificação de hidrometeoros, disponível no software de operação do radar de dupla polarização. Dentre os dois filtros apresentados, a técnica que utiliza as variáveis polarimétricas apresentou melhores resultados em quase todos os requisitos, sendo inferior somente em tempo de processamento. Palavras-chave: Visualização Científica Interativa, Radar Polarimétrico Dual, Controle de Qualidade. / Abstract: Weather radars have the characteristic of enabling the prediction of short term severe events. However, the quality of data from radars is commonly affected by unwanted signals, which do not correspond to the precipitation, caused by the presence of insects and birds, topography and other interferences. In this context, processing systems and interactive visualization are very important because they help the analysis and subsequent decision making based on the observation of such data. Considering the development of radar technology in recent years, processing and viewing large amounts of data became a challenge. This paper reports the development of an interactive system for processing and weather radar data visualization, and the implementation of two algorithms for quality control of data (filters). The interactive visualization and quality control of such data are particularly important for analysts to quickly and effectively extract useful information and make decisions. The implemented filters are based on existing studies in the literature. The first uses only the reflectivity for data correction and the second uses the new information provided by the dual polarimetric radar. The comparisons were performed with the comparison with the hydrometeor classification algorithm, available in the dual polarization radar operational software. Of the two filters shown, the technique that uses the polarimetric variables showed better results in almost all of the requirements and lower results in processing time. Key-words: Interactive Scientific Visualization, Dual Polarimetry Radar, Quality Control.
316

Otimização na contratação de energia sob a ótica das distribuidoras considerando a sazonalização da carga

Freitas, Danielle de January 2017 (has links)
Orientadora : Profa. Dra. Neida Maria Patias Volpi / Coorientadora : Dra. Ana Paula Oening / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Tecnologia, Programa de Pós-Graduação em Métodos Numéricos em Engenharia. Defesa: Curitiba, 24/02/2017 / Inclui referências : p.94-96 / Resumo: O Decreto 5.163/2004 impõe às distribuidoras a contratação de 100% do seu mercado de energia e, no caso de descumprimento dessa regra, as mesmas são sujeitas a perdas financeiras decorrentes da exposição ao Mercado de Curto Prazo (MCP). Para que haja atendimento a essa obrigação, cada distribuidora deve adquirir energia por meio de leilões, sendo os mais comuns: Ajuste, A-1, A-3 e A-5, que possuem tempo de início de suprimento e duração de contratos diferenciados. Também, cada leilão possui limites de compra e de repasse 'a tarifa de energia, sendo que cada categoria de leilão negocia mais de um tipo de produto, com durações de contratos diferenciadas, o que acaba dificultando o planejamento estratégico de compra. Ainda, as distribuidoras precisam, a cada ano, discretizar suas cargas mensalmente, sendo esse processo denominado por sazonalização. Tal processo precisa ser bem executado, de forma que essa discretização mensal fique o mais próximo da curva de demanda para cada mês, visto que uma diferença positiva ou negativa entre a carga alocada mensalmente e a demanda realizada pode acarretar prejuízos financeiros para a distribuidora. Assim, para o desenvolvimento deste trabalho foi proposto um modelo de otimização linear que considerou uma estratégia de contratação com menor custo possível, considerando as diversas categorias de leilões, suas restrições e limitações de repasse de custos, tanto para um horizonte de curto como de longo prazo. No curto prazo considerou-se a contabilização de energia no MCP como mensal, englobandose à contratação o processo de sazonalização, já no longo prazo considerou-se a contabilização de energia em base anual. A partir desse modelo, foram realizados estudos de caso para o horizonte de 2010 a 2015, tomando valores reais praticados no mercado de energia, bem como as informações dos leilões ocorridos e seus produtos. Os resultados mostraram-se promissores, visto que o modelo devolve uma solução de menor custo, utilizando a sazonalização da carga. Foram realizadas comparações entre o modelo proposto e o que realiza a sazonalização somente após a decisão de compras e, para diferentes cenários de Preço de Liquidação das Diferenças (PLD), o modelo proposto se mostrou superior. Por fim, foi realizada uma análise sensibilidade para quantificar os riscos financeiros que a distribuidora está sujeita ao prever sua demanda erroneamente. Palavras-chave: Leilões de energia. Sazonalização. Contratação de energia elétrica. Otimização. / Abstract: The Brazilian decree 5.163/2004 impose on electricity distribution companies to contract energy for one hundred percent of their energy markets. In case of noncompliance, they are subject to financial losses due to Shorth Term Market (MCP) exposure. In order to meet this obligation, each distributor must acquire energy through auctions, the most commons known as Adjust, A-1, A-3 and A-5. Every auction has distinct supply schedules and contracts duration, as well as purchase and tariff onlending limits. Moreover, each auction category trades more than one type of product, with differentiated contracts durations, which hinders the companies' strategic purchases planning. In addition, distributors must, each year, discretize their loads monthly, which is called seasonally. This process needs to be well executed, so that this monthly discretization is closer to the demand curve for each month, since a positive or negative difference between the monthly allocated load and the demand realized can cause financial losses to the distributor. Thus, for the development of this work, a linear optimization model was proposed that considered, a contracting strategy with the lowest possible cost was defined, considering the various categories of auctions, their constraints and cost onlending limitations, both for short-term and long-term horizons. In the short term, monthly energy power accounting was considered at the MCP, including the process of contracting, and the seasonalization. On the other hand, in the long term a yearly energy accounting was considered. The present work did not have the purpose of treating the very short term, where modulation of contracts takes place. From this model, case studies were carried out, for the horizon from 2010 to 2015. Real values practiced in the energy market were applied, as well as the information of the auctions and its products. The results were promising, since the model returned a lower cost solution even using the load seasonalization strategy. Comparisons were made between the proposed model and an alternative that performs the seasonalization only after the purchase decision. For different Settlement Price of Differences (PLD) scenarios the proposed model showed superior. Finally, a sensitivity analysis was performed to quantify the financial risks that the distributor is subject to when applying a wrong forecast of its energy needs. Key-words: Electric power auctions. Seasonalization. Electric power contracting. Optimization.
317

Dimensionamento e análise numérica de cascas de concreto armado para aplicações em plataformas offshore /

Friaça, Carlos Pitágoras Pereira. January 2009 (has links)
Resumo: Das primeiras atividades de exploração de petróleo offshore, em 1968 na Bacia de Sergipe, com lâmina d'água de cerca de aproximadamente 30m, até as explorações em águas profundas, entre 1000 e 2000 m, e ultra-profundas, acima de 2000 m, na Bacia de Campos (RJ), o Brasil tem-se destacado mundialmente neste tipo de exploração, a ponto de sermos hoje líderes mundiais neste setor. Muitos foram os desafios impostos para exploração de petróleo enquanto as profundidades das lâminas d'água aumentavam. As estruturas fixas (jaquetas), empregadas em águas mais rasas, começaram a ter seu uso inviabilizado, pois para águas profundas deveriam ser construídas estruturas excessivamente rígidas e caras. Nesse sentido, as plataformas de concreto demonstraram que seu comportamento em meio offshore é de boa qualidade, sobretudo devido à alta durabilidade do material concreto. Segundo Adebar e Collins (1994) os procedimentos para projetar estruturas de concreto offshore, embora as mesmas sejam estruturas mais complexas, são similares aos utilizados para construir grandes estruturas. No entanto, a verificação da capacidade de resistência em seções particulares para as forças transversais, o comportamento não-linear da estrutura de concreto deve ser levado em consideração, evitando problemas de dimensionamento como o ocorrido, por exemplo, com a plataforma Sleipner A. Desta maneira, utilizando o processo iterativo proposto por Lourenço e Figueiras (1993), foi feito o dimensionamento de elementos de cascas ensaiados experimentalmente sujeitos a forças de membrana e a momentos fletores obtidos da literatura. Depois de feito o dimensionamento dos elementos de cascas, o seu comportamento foi analisado e comparado com o resultado numérico obtido pelo DIANA, programa de elementos finitos utilizado para a análise não-linear de estruturas / Abstract: The first activities of offshore petroleum exploration in Brazil started in 1968 at Sergipe basin, approximately 30 meters depth until the explorations on deep water, between 1000 and 2000 meters, and ultra-deep water, greater than 2000 meters, at Campos basin, state of Rio de Janeiro, the Brazil has highlighted in the world in this kind of exploration, to become a world leaders in this sector. Many difficulties were imposed for the exploration of petroleum by the water depth increase. The fixed structures, known as jacket, used in shallow water, became impractical in deeper water, because, for this condition, these structures most be built too rigid and expensive. In this sense, reinforced concrete platforms have been demonstrating a better behavior in offshore environment, mainly due to the material high durability. In accordance with Collins e Adebar (1994), the procedures adopted in reinforced concrete offshore design are similar to those adopted in large structures design, though the offshore structure are much more complex. However, the material nonlinear behavior must be considered in the shear resistance capacity verification of particular cross-sections, so as to avoid problem with design as occurred, for example, with the platform Sleipner A. In this matter, using the iterative process proposed by Lourenço e Figueiras (1993), it will be made a design of shell elements tested experimentally subject to membrane force and bending moments found in the literature. After done the design of the shell elements, their behavior will be analyzed and compared to the numerical solution obtained with DIANA, a finite element program for non-linear structural analysis / Orientador: Mônica Pinto Barbosa / Coorientador: Tulio Nogueira Bittencourt / Banca: Gilberto Pechoto de Melo / Banca: Osvaldo Luís Manzoli / Mestre
318

Aplicação de um modelo numérico na otimização de fornos alimentícios usando o OpenFOAM® /

Verdério Júnior, Sílvio Aparecido. January 2015 (has links)
Orientador: Vicente Luiz Scalon / Co-orientador: Alcides Padilha / Banca: Santiago Del Rio Oliveira / Banca: Pedro Miguel Rebelo Resende / Resumo: Os fornos contínuos do tipo túnel, dada a sua maior flexibilidade no aquecimento e alta produtividade, tornaram-se a melhor opção para o processamento de produtos alimentícios industrializados. O combustível utilizado nos queimadores é normalmente o gás natural, que apesar das incertezas e oscilações dos custos, vem ganhando espaço na indústria nacional. No presente trabalho foram desenvolvidos diversos modelos físicos tridimensionais - classificados em modelos de testes, de análises paramétricas e de otimização - e utilizados no estudo, modelagem e otimização de fornos alimentícios contínuos do tipo túnel com aquecimento indireto. Utilizou-se o software livre de código aberto OpenFOAM® para a modelagem dos problemas propostos. A geometria e condições operacionais utilizadas foram obtidas junto a uma empresa alimentícia bauruense para o processo de pré-assamento de pizzas. Os efeitos da geometria, malha, condições iniciais e de contorno, algoritmo de acoplamento pressão-velocidade, forças de campo, trocas de calor por radiação através dos modelos fvDOM e view/Factor e modelagem RANS k- E para a turbulência foram avaliados sobre os parâmetros do escoamento. O algoritmo de acoplamento pressão-velocidade mais indicado ao problema proposto é o SIMPLE. A utiilzação do modelo de radição viewFactor mostrou-se mais adequado. As trocas de calor por convecção sobre a esteira mostraram-se pouco significantes em relação as trocas por radiação, demonstrando a importância da correta modelagem desse fenômeno. Testes para diversas geometrias de forno foram realizados. O forno'com menor razão de aspecto geométrico e consequentemente, de menor altura, mostrou-se mais eficiente, embora isto possa provocar, na prática, limitações na sua utilização / Abstract: Because of the better flexibility in warning and high production, the continuous furnace tunnel is the better option to the processing of industrialized food products. The fuel used in the burners is usually natural gas, which despite the uncertainties and fluctuantions in costs, is becoming more popular in national industry. In this work, several three-dimensional physical models were developed - classified in testing models, parametric analysis and optimization - and used to the study, modeling and optimization of continuous food furnaces of tunnel type with indirect heating. It was chosen the OpenFOAM® opensource software for modeling of proposed problems. The geometry and the operating conditions were based in a bauruense food company to the process of pre-baking of pizzas. The effects of geometry, mesh, initial and boundary conditions, pressure-velocity coupling algorithm, field strengths, radiation heat exchanges using fvDOM and view/Factor, and modeling RANS k - E for turbulence to were evaluated about the flow parameters. The SIMPLE is the most indicated pressure-velocity coupling algorithm to this problem. The use of viewFactor radiation model proved more adequate. The heat exchanges by convection over the treadmill have proved little significant compared the heat exchanges by radiation, demonstrating the importance of correct modeling of this phenomenon. Differents geometries tests were made, and the furnace with the smaller ratio aspect geometric and, consequently, smaller height, showed to be most efficient, although this may result in practice, in limitations in its use / Mestre
319

Aderência aço-concreto : análise numérica dos ensaios pull-out e APULOT /

Tavares, Alysson José. January 2012 (has links)
Orientador: Mônica Pinto Barbosa / Coorientador: André Luís Gamino / Banca: Ana Elisabete Paganelli Guimarães de Avila Jacintho. / Banca: Helena Maria Cunha do Carmo Antunes / Resumo: A aderência entre o aço e o concreto é fundamental para a existência das estruturas de concreto armado, uma vez que os dois materiais atuam em conjunto para absorver os esforços solicitantes. O fenômeno da aderência é considerado complexo no que se refere aos vários fatores que o influenciam. Para melhor compreender esse fenômeno, várias investigações vêm sendo realizadas, com o pretexto de estabelecer um parâmetro que expresse a evolução da tensão de aderência em função do deslizamento da barra de aço. Vários tipos de ensaios de aderência foram propostos ao longo dos anos. Dentre eles surgiu a proposta modificada do ensaio pull-out elaborada por Lorrain e Barbosa (2008) denominada de ensaio APULOT, e que vem a ser um dos objetivos desta avaliação numérica. Baseados nos resultados experimentais obtidos por Vale Silva (2010) e por Soudais (2011) quer seja para os ensaios pull-out convencionais, quer seja para o ensaio modificado, APULOT, procura-se, neste estudo, conhecer melhor o comportamento do fenômeno da aderência aço-concreto, através da simulação numérica. Este trabalho avalia a distribuição de tensões e a fissuração do concreto que ocorre durante os ensaios de arrancamento pull-out e APULOT através da análise numérica utilizando o código de cálculo ATENA, baseado no Método dos Elementos Finitos (MEF), o qual possui elemento de interface baseado no modelo de Mohr-Coulomb. Avalia-se também a influência de alguns parâmetros que intervêm no comportamento da aderência aço-concreto, tais como: o diâmetro da armadura, a resistência à compressão do concreto e o comprimento de ancoragem. A análise numérica serviu como uma ferramenta de apoio aos ensaios experimentais, que visam a validação, validação parcial, ou não recomendação do ensaio de aderência... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: The bond between steel and concrete is essential for the existence of reinforced concrete structures as both materials act together to absorb the structural strain. The bond phenomenon is considered to be complex regarding many factors that affect it. To better understand this phenomenon, many investigations have been conducted under the pretext of establishing a parameter that express the evolution of the bond stress versus the steel bar slip. Several types of bond tests have been proposed over years. Among those tests, the modified pull-out test developed by Lorrain and Barbosa (2008), called APULOT test, is one of the objectives of this numerical evaluation. Based on experimental results obtained by Vale Silva (2010) and Soudais (2011) either by conventional pull-out tests, or by modified test APULOT, we search in this study to better understand the behavior of the steel-concrete bond phenomenon through numerical simulation. This study evaluates the stress distribution and the concrete cracking that occurs during pull-out and APULOT tests through numerical analysis, using ATENA calculation code, based on the Finite Element Method (FEM), which has interface elements based on Mohr-Coulomb model. It is also evaluated the influence of several parameters that affect the behavior of the steel-concrete bond such as the reinforcement diameter, the concrete compressive strength and the anchorage length. Numerical analysis worked as a tool to support experimental tests aimed at validation, partial validation or non-recommendation of the modified testing of steel-concrete bond - APULOT test - as a quality control test of structural... (Complete abstract click electronic access below) / Mestre
320

Simulação numérica do processo de soldagem de tubos por atrito com anel rotativo

Kanan, Luis Fernando January 2016 (has links)
Tubos de aço inoxidável duplex (AID) são utilizados na indústria petroquímica para transporte de óleo e gás em ambientes agressivos e em condições de corrosão sob tensão. O processo de soldagem destes tubos impõem grandes dificuldades, como longos períodos de soldagem e formação de intermetálicos devido a baixas taxas de resfriamento. Visando investigar alternativas para este processo, o Laboratório de Metalurgia Física (LAMEF) desenvolveu um equipamento (MASF 1500) capaz de realizar o processo de Soldagem de Tubos por Atrito com Anel Rotativo (STAAR). Este processo é mais rápido e não prejudica as propriedades mecânicas como a soldagem convencional, porém apresenta o viés da formação de rebarbas no tubo que precisam ser removidas para transporte de fluidos. Para investigar a formação de rebarba, os campos de deformação e a distribuição térmica na peça, um modelo utilizando o método dos elementos finitos (MEF) foi desenvolvido a partir de resultados experimentais. O modelo termomecânico desenvolvido com o software ABAQUS se baseia apenas nos parâmetros de entrada do equipamento, e se mostrou capaz de reproduzir os resultados de soldagem de força e deslocamento com erros abaixo 15% e 4% respectivamente. A formação de rebarba interna dos tubos foi calculada com erros abaixo de 5% e as distribuições de temperatura e deformação plástica foram analisadas. Considerando que a formação de fases intermetálicas é um dos principais problemas na soldagem convencional dos AID, as temperaturas calculadas com o modelo foram utilizadas para estimar a formação de fase sigma no tubo, tendo valores calculados abaixo de 1%. / Duplex stainless steel pipes are used in oil and gas transport while in aggressive environment and stress corrosion cracking conditions. The common welding process of these pipes is difficult due to long welding periods and intermetallic phase formation by slow cooling rate. As an alternative for this process, the Physical Metallurgy Laboratory (LAMEF) at UFRGS University developed a machine (MASF 1500) capable of performing tube friction welding with a rotary ring process (STAAR – Soldagem de Tubos por Atrito com Anel Rotativo). This process is faster and does not diminish original mechanical properties of the component, however the process presents flash formation which must be removed for fluid transportation. To investigate flash formation, strain fields and thermal fields in the welded samples, a FEM model was developed based on experimental results. The thermo-mechanical model developed in ABAQUS environment is solely based in process input parameters, showing results of force and displacement with errors smaller than 15% and 4% respectively. The internal flash formation calculation showed less than 5% error and the thermal distribution and plastic deformation were analyzed. Considering that intermetallic phases are one of the biggest concerns on duplex stainless steel arc welds, sigma phase formation was calculated from model’s thermal output, showing less than 1% sigma formation.

Page generated in 0.0686 seconds