• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 901
  • 32
  • 13
  • 13
  • 13
  • 13
  • 10
  • 8
  • 8
  • 8
  • 3
  • 1
  • 1
  • 1
  • Tagged with
  • 946
  • 946
  • 286
  • 277
  • 269
  • 224
  • 186
  • 185
  • 172
  • 171
  • 124
  • 112
  • 107
  • 105
  • 102
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Localização de zeros reais de polinômios intervalares / Real zero localization of interval polynomials

Marins, Jussara Maria January 1996 (has links)
Este trabalho contém um estudo para isolar os zeros reais de polinômios cujos coeficientes podem ser perturbados, isto é, os coeficientes possuem variações que constituem intervalos. Assim chamamos a tais polinômios de Polinômios Intervalares do mesmo modo que chamamos de polinômios complexos àqueles que possuem coeficientes complexos. Isolar os zeros, delimitar regiões que os contenham, dizer se um polinômio estável ou determinar qual a perturbação aceitável nos seus coeficientes, de modo a preservar certas características são problemas que aparecem em diversos setores da Computação Científica e em especial, na Teoria de Controle. Neste trabalho, a família dos polinômios intervalares é inicialmente analisada dentro das possibilidades algébricas que as operações intervalares, conforme definidas por Moore, permitem. Dentro deste contexto, são definidas as operações elementares entre polinômios intervalares assim como são estudadas as suas novas propriedades. Em função das limitações inerentes à abordagem anterior, a família [p] dos polinômios intervalares, é também, caracterizada por um novo enfoque, através de 4 polinômios reais específicos da família, - os polinômios limítrofes - a partir dos quais podemos obter informações relevantes a respeito da enumeração e localização dos seus zeros reais ou eventualmente sobre os zeros complexos. Obtivemos, com o uso dos polinômios limítrofes, um resultado mais eficiente para determinar se um polinômio intervalar possui apenas zeros reais, de modo que, neste caso, eles possam ser isolados num algoritmo algébrico de complexidade menor, do que uma outra alternativa baseada no cálculo de autovalores. Além disso. localizar os zeros de polinômios intervalares é uma fase importante para o cálculo aproximado ou mesmo exato da região que contém efetivamente os zeros do polinômio intervalar. Em geral, os métodos de cálculo aproximado dos zeros precisam de uma região inicial que contenha apenas um zero a ser pesquisado. Esta é uma fase crítica de todo o processo, feito pela abordagem algébrica ou pela abordagem de aproximações numéricas. / The aim of this work is to isolate through algebraic process the real polynomial roots that have coefficients which can be perturbed. These perturbations (variations) on the coefficients can be enclosed in intervals. Then we call these polynomials. interval polynomials, in the same way that we call complex polynomial those ones formed with coefficients that are complex numbers. One of the main points in the solution of polynomial problems is to limit the regions that have all roots, all the negative ones, the stability, and so on. These questions present good solutions when the polynomials are real or complex, on the other hand, when the coefficients are perturbed or we need to decide what kind of variation can be done, in order to preserve the main features of the polynomial, then we are workin g with problems that appear in Scientific Computation and, specially, in Control Theory. Besides this, we need to isolate the roots of interval polynomial before calculating them. In general, the methods for approximating zeros need an initial region that has just one root. In the case where the accuracy is necessary or if we already know of the result instability, the algebraic processes are recommended.
112

Análise numérico-experimental da pá eólica do aerogerador modelo Verne 555 / Numerical experimental analysis of a wind blade from Verne 555 wind turbine model

Morais, Adriano Átima de 13 December 2017 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade UnB Gama, Programa de Pós-Graduação em Integridade de Materiais da Engenharia, 2017. / Submitted by Raquel Almeida (raquel.df13@gmail.com) on 2018-04-11T21:28:36Z No. of bitstreams: 1 2017_AdrianoÁtimadeMorais.pdf: 5280358 bytes, checksum: 1c669f077ac8aa4961f17d9fefd06e33 (MD5) / Approved for entry into archive by Raquel Viana (raquelviana@bce.unb.br) on 2018-04-12T17:33:54Z (GMT) No. of bitstreams: 1 2017_AdrianoÁtimadeMorais.pdf: 5280358 bytes, checksum: 1c669f077ac8aa4961f17d9fefd06e33 (MD5) / Made available in DSpace on 2018-04-12T17:33:54Z (GMT). No. of bitstreams: 1 2017_AdrianoÁtimadeMorais.pdf: 5280358 bytes, checksum: 1c669f077ac8aa4961f17d9fefd06e33 (MD5) Previous issue date: 2018-04-12 / O aumento do comprimento das torres eólicas e do diâmetro do rotor, ao longo dos anos, tornaram também as pás eólicas uma estrutura flexível e sujeita a níveis de vibração importantes de serem avaliados. A maioria dos acidentes com turbinas eólicas são ocasionadas por falhas ocorridas nas pás. A causa dessas falhas advém de diversos fatores, como a atuação de rajadas de vento, relâmpagos, fadiga, entre outros. Cerca de 30 falhas de pás eólicas estão ocorrendo por ano em parques eólicos operados comercialmente em todo o mundo. Uma das demandas e desafios do setor eólico tem como linha prioritária garantir a integridade estrutural de aerogeradores enquanto sujeitas às complexas cargas estáticas e dinâmicas. O colapso de pás eólicas devido a danos excessivos de carga ou de fadiga, pode levar à destruição de toda a turbina. Segundo a norma IEC 61400/23:2001, a pá deve ser submetida a ensaios com carregamento estático de distribuição normalizada da carga de projeto, produzindo uma margem entre essa carga e a resistência à ruptura da pá na sua posição mais fraca. Desta forma, este trabalho se propôs avaliar a resistência de um conjunto de pás da turbina Verne 555 sob o ponto de vista estático, através de procedimentos experimentais e simulações numérico-computacionais por meio do Método dos Elementos Finitos, utilizando o software ANSYS. Teve-se como objetivo calibrar o modelo numérico do objeto de estudo deste trabalho previamente elaborado por Araújo et al. (2016) através de ensaios experimentais estáticos, realizados de acordo com a norma IEC 61400/23:2001, ensaios de tração para a verificação do módulo de elasticidade e tensão de ruptura do material, de acordo com a norma ASTM D3039:2014, bem como ensaios térmicos para a caracterização do tipo de material interno utilizado na fabricação da pá por meio da análise termogravimétrica. As cargas impostas nos testes estáticos e no modelo numérico foram extraídas da modelagem aerodinâmica pela teoria do elemento de pá via software QBlade. O comportamento da pá quanto à deformação apontou a necessidade de uma análise numérica que contemplasse a não-linearidade geométrica. Esta evolução técnica permitiu compreender melhor a realidade que rege o problema. As pás não apresentaram um comportamento padrão quanto à ruptura, exceto na formação das fissuras que foi sempre transversal à seção. Em dois ensaios estáticos os efeitos brazier, buckling e delaminação foram identificados. O ensaio de tração em amostras retiradas da pá nos forneceu parâmetros mecânicos importantes para a calibração do modelo numérico, bem como na identificação dos materiais internos através do método de termogravimetria, já que nenhuma informação a respeito da pá foi fornecida pelo fabricante. / Increasing the length of wind towers and rotor diameter over the years have also made wind turbines a flexible structure subject to significant levels of vibration to be evaluated. Most accidents with wind turbines are causeds by failures in blades. The cause of these failures comes from several factors, such as the action of wind gusts, lightning, fatigue, among others. About 30 failures of wind turbines are occurring annually in commercially operated wind farms around the world. One of the demands and challenges of the wind sector has as a priority line to guarantee the structural integrity of wind turbines while subject to complex static and dynamic loads. The collapse of wind turbines due to excessive load or fatigue damage can lead to the destruction of the entire turbine. According to IEC 61400/23: 2001, the blade must be subjected to tests with static loading of standard design load distribution, producing a margin between this load and the blade rupture strength at its weakest position. In this way, this work intends to evaluate the resistance of a Verne 555 turbine blade set from a static point of view, through experimental procedures and numerical-computational simulations using the Finite Element Method using the ANSYS software. The aim of this study was to calibrate the numerical model of the study object of this work previously elaborated by Araújo et al. (2016) by means of static experimental tests carried out in accordance with IEC 61400/23: 2001, traction tests for the modulus of elasticity and traction strength of the material in accordance with ASTM D3039: 2014 as well as thermal tests for the characterization of the type of internal material used in the manufacture of the blade by thermogravimetric analysis. The loads imposed on the static tests and the numerical model were obtained through aerodynamic modeling by QBlade software blade theory. The behavior of the blade on the deformation indicated the need for a numerical analysis that contemplated the geometric non-linearity. This technical evolution allowed a better understanding of the reality that governs the problem. The blades did not present a standard behavior regarding the rupture, except in the formation of the fissures that was always transversal to the section. In two static tests the brazier, buckling and delamination effects were identified. The traction test on samples taken from the spade gave us important mechanical parameters for the calibration of the numerical model as well as the identification of the internal materials by means of the thermogravimetry method, since no information about the spade was provided by the manufacturer.
113

Análises experimentais e numéricas de compostos elastoméricos

Thomazi, Daniel Angelo Francisco January 2009 (has links)
Materiais hiperelásticos há muito vem sendo utilizados para construir mecanismos complexos baseados nas suas excelentes características mecânicas e de vedação. O maior problema na sua utilização é determinar suas propriedades mecânicas. Uma conseqüência disso é que a maioria dos projetos envolvendo elastômeros usam métodos empíricos desenvolvidos com anos de testes laboratoriais. Este fato somado ao crescente nível de exigência por componentes modernos e eficientes requerem uma melhor compreensão das suas propriedades mecânicas. Com um conhecimento específico é possível desenvolver modelos numéricos que facilitem a faze de projetos, tornando-as mais fáceis e rápidas. Baseado nesta linha de raciocínio, a presente dissertação apresenta três diferentes estudos: O primeiro, objetivando simplificar o modelo numérico de materiais elastoméricos, desenvolveu um estudo experimental e numérico de um corpo de prova do composto NBR sob tração. Variando alguns parâmetros, tais quais, a deformação inicial e a frequencia de excitação, foram obtidos resultados que demonstraram a sua influência no sistema. Um segundo estudo objetivou discutir a importância dos ensaios experimentais na determinação das constantes constitutivas de materiais elastoméricos. Assim, fazendo mão de um software comercial, diversas curvas foram geradas e suas constantes constitutivas calculadas para o modelo de Yeoh. O terceiro estudo objetivou reproduzir numericamente um ensaio experimental dinâmico. Ao excitar um corpo de prova com uma função harmônica, uma curva de histerese foi gerada e em seguida um modelo numérico equivalente foi gerado a fim de reproduzir os resultados encontrados experimentalmente. / Hyperelastic materials have been used for long time to build certain kinds of components applied in simple or complex systems. Their sealing, damping, etc. characteristics allows their application on this purpose. The biggest problem in using this kind of material is to determine its mechanical properties. A consequence of this problem is that the majority of the projects involving elastomers use empirical methods, known with years of experience or with laboratorial tests. This fact added to the raising level of requirement of modern and efficient projects requires a better comprehension and characterization of their mechanical properties. Having this characterization is possible to develop numerical models that can make the faze of project faster and easier. With these concepts on mind, this study consists on three distinct developments: A first study, aiming simplify the element finite model of elastomeric components, it was carried out an experimental an numercial study of a piece of a NBR rubber under traction. Some parameters as inicial deformation and load frequencies were changed. With that, their results were compared with the objetive of determine the influence of this vaiables on the dampinf of the system. A second study aimed to discuss the importance of the laboratorial tests on the determination of the constitutive constants of elastomeric materials. This way, using a comercial software, several curves were generated and their constants were calculated to the Yeoh’s constitutive model. The third study aimed to reproduce on a numerical implementation, a laboratorial dynamic test. Loading harmonically a work piece on traction, a hysteresis curve were generated. Then a numerical model were created trying to reproduce this results.
114

Métodos multigrid paralelos em malhas não estruturadas aplicados à simulação de problemas de dinâmica de fluidos computacional e transferência de calor

Galante, Guilherme January 2006 (has links)
Fenômenos naturais, tecnológicos e industriais podem, em geral, ser modelados de modo acurado através de equações diferenciais parciais, definidas sobre domínios contínuos que necessitam ser discretizados para serem resolvidos. Dependendo do esquema de discretização utilizado, pode-se gerar sistemas de equações lineares. Esses sistemas são, de modo geral, esparsos e de grande porte, onde as incógnitas podem ser da ordem de milhares, ou até mesmo de milhões. Levando em consideração essas características, o emprego de métodos iterativos é o mais apropriado para a resolução dos sistemas gerados, devido principalmente a sua potencialidade quanto à otimização de armazenamento e eficiência computacional. Uma forma de incrementar o desempenho dos métodos iterativos é empregar uma técnica multigrid. Multigrid são uma classe de métodos que resolvem eficientemente um grande conjunto de equações algébricas através da aceleração da convergência de métodos iterativos. Considerando que a resolução de sistemas de equações de problemas realísticos pode requerer grande capacidade de processamento e de armazenamento, torna-se imprescindível o uso de ambientes computacionais de alto desempenho. Uma das abordagens encontradas na literatura técnica para a resolução de sistemas de equações em paralelo é aquela que emprega métodos de decomposição de domínio (MDDs). Os MDDs são baseados no particionamento do domínio computacional em subdomínios, de modo que a solução global do problema é obtida pela combinação apropriada das soluções obtidas em cada um dos subdomínios Assim, neste trabalho são disponibilizados diferentes métodos de resolução paralela baseado em decomposição de domínio, utilizando técnicas multigrid para a aceleração da solução de sistemas de equações lineares. Para cada método, são apresentados dois estudos de caso visando a validação das implementações. Os estudos de caso abordados são o problema da difusão de calor e o modelo de hidrodinâmica do modelo UnHIDRA. Os métodos implementados mostraram-se altamente paralelizáveis, apresentando bons ganhos de desempenho. Os métodos multigrid mostraram-se eficiente na aceleração dos métodos iterativos, já que métodos que utilizaram esta técnica apresentaram desempenho superior aos métodos que não utilizaram nenhum método de aceleração.
115

Estimação dos intervalos de confiança para a função perda de Taguchi, razão sinal ruído e dos índices de capacidade potencial do processo, por meio de método de reamostragem

Marques, Marcos Augusto Mendes January 2015 (has links)
Orientador : Prof. Dr. Anselmo Chaves Neto / Tese (doutorado) - Universidade Federal do Paraná, Setor de Tecnologia, Programa de Pós-Graduação em Métodos Numéricos em Engenharia. Defesa: Curitiba, 24/04/2015 / Inclui referências : f. 136-141 / Resumo: A competitividade na atualidade se faz presente em diversos ramos da manufatura de produtos e uma companhia para ser competitiva neste meio deve fazer investimentos constantes em qualidade. Investir em qualidade envolve uma complexa rede que vai desde a satisfação do cliente ao adquirir um produto, modernização de maquinário por parte das indústrias, preocupação com o meio ambiente e treinamento constante das partes que compõem uma empresa, ou seja, da alta diretoria até ao chão de fábrica. Se faz necessário a conscientização de que alta qualidade está associada a baixos custos, e isto é possível, pela utilização de uma ferramenta utilizada na área de engenharia de qualidade denominada de função perda média de Taguchi. Pela sua utilização, pode-se medir a perda monetária existente devido ao desvio de uma característica funcional do seu valor nominal (target), mesmo que tal característica se encontre dentro dos limites de especificação. Assim sendo, se a companhia prezar pela manufatura de seus produtos, centralizando e minimizando a variabilidade da produção de determinada característica funcional, prova-se pela função perda média de Taguchi que alta qualidade efetivamente está atrelada a baixos custos. Outra ferramenta utilizada na área de qualidade é a razão sinal-ruído, idealizada também por Taguchi, onde a mesma mensura a robustez de um produto frente a fontes de ruído, pois quanto mais insensível a essas fontes um produto for, mais robusto e confiável ele será. Confiabilidade e robustez estão altamente correlacionadas a produtos de alta qualidade. Como esses indicadores não possuem estimação por intervalos de confiança e não se conhecem suas distribuições de probabilidade, se propõe nessa tese, a utilização e análise do método estatístico de reamostragem bootstrap para estimação das suas variabilidades, suas distribuições bootstrap e seus intervalos de confiança através de simulação. O estudo se estende com os mesmos objetivos de estimação para os índices de capacidade potencial do processo C p, C k e C pkm , e , onde os mesmos são muito conhecidos e utilizados como ferramentas do controle estatístico de qualidade. Como suas distribuições não são conhecidas aplicou-se o método bootstrap para estimação das mesmas bem como para seus intervalos de confiança. Efetuaram-se cinco técnicas de estimação de intervalos de confiança a bootstrap, onde cada uma tem sua peculiaridade e condição para validação do seu uso. Para se efetuar as simulações e cálculos propostos, utilizou-se de um programa (função) cujo algoritmo foi desenvolvido no software Matlab. Aplicou-se o algoritmo em três amostras, onde cada uma delas representa uma das características funcionais possíveis, obtendo para as mesmas as suas respectivas distribuições bootstrap, variabilidade e intervalos de confiança. O método se mostrou confiável para os cálculos propostos, sendo que se obtiveram com êxito todos os objetivos propostos. Palavras-chave: Qualidade. Função perda de Taguchi. Razão sinal-ruído. Capacidade de processo. Distribuição bootstrap. Intervalo de confiança boostrap. / Abstract: The competitiveness nowadays it is made present in several branches of the manufacture of products and a company to be competitive in this environment should make constant investments in quality. To invest in quality involves a complex network that is going from the customer satisfaction when acquiring a product, machinery modernization on the part of the industry, concern with the environment and constant training of all the parts that a company has, in other words, from the high management to the factory ground. It is necessary the understanding that high quality is associated at low costs, and that is possible, by the use of a tool in the area of engineering of quality denominated of medium loss function of Taguchi. Definitely for its use, the existing monetary loss can be measured due to the variances of a functional characteristic of its nominal value (target), even if such characteristic is inside of the specification limits. In other words, if the company respects for the manufacture of their products, centralizing and minimizing the variability of production of the certain functional characteristic, it is proven by the medium loss function of Taguchi that high quality indeed is tied at low costs. Besides that, another tool used in the quality area is the signal to noise ratio, also idealized by Taguchi, where its measures the robustness of a product before to noise sources, because the more insensitive to those sources a product are, more robust and reliable it will be. Reliability and robustness are highly correlated to products of high quality. As those indicators has not estimate for trusty intervals and it does not know each other its distributions of probability, it is proposed in this doctoral dissertation, the utilization and analysis of the statistical method of re-sample bootstrap for the estimation of their variability, its distributions bootstrap and its trust intervals through simulation. The study extends with the same estimate objectives for the rates of potential capacity of the process C p , C pk and C pkm , by which the same ones are very known and used as tools of the statistical control of quality. Such as its distributions are not known the method bootstrap was applied to estimate of the same ones as well as for its trusty intervals. Therefore was conducted five techniques of estimate of trusty intervals the bootstrap, by which one has its peculiar and condition for validation of its use. So to make the simulations and proposed calculations, it was used by a program (function) whose algorithm was developed in the Matlab software. The algorithm was applied in three samples, by which one of them represents one of the possible functional characteristics, obtaining for the same ones its respective distributions bootstrap, variability and trusty intervals. The method was shown reliable for the proposed calculations, and it was obtained with success all the proposed objectives. Keywords: Quality. Taguchi's loss function. Signal to noise ratio. Process capability. Bootstrap distribution. Bootstrap confidence interval.
116

Identificação, monitoramento e previsão de tempestades elétricas

Kleina, Mariana January 2015 (has links)
Orientador : Prof. Dr. Luiz Carlos Matioli / Tese (doutorado) - Universidade Federal do Paraná, Setor de Tecnologia, Programa de Pós-Graduação em Métodos Numéricos em Engenharia. Defesa: Curitiba, 10/12/2015 / Inclui referências : f. 103-107 / Área de concentração : Programação matemática / Resumo: Este trabalho tem por objetivo propor um sistema de identificação, monitoramento e previsão de tempestades elétricas em uma região de linha de transmissão de energia do Brasil utilizando apenas informações de descargas atmosféricas. Na etapa de identificação das tempestades é utilizada clusterização espacial/temporal das descargas, para o monitoramento são realizadas conexões entre clusters de acordo com a velocidade de deslocamento dos núcleos das tempestades e finalmente a previsão uma hora à frente é obtida por meio de extrapolação de dados. As variáveis das tempestades elétricas acompanhadas e previstas são: posição central (latitude e longitude), número médio de descargas por hora, distribuição espacial das descargas dentro das tempestades e média do valor absoluto do pico de corrente de descargas que compõem as tempestades. O sistema é calibrado por meio da otimização de um problema irrestrito baseado em índices de monitoramento e previsão. Exemplos práticos são apresentados para a região piloto, onde diversos gráficos ilustram o produto do sistema proposto. Palavras-chave: Análise de Agrupamento. Convergent Data Sharpening. Descargas Atmosféricas. Tempestades Elétricas. Previsão à Curto Prazo. / Abstract: This work aims to propose a system of identification, monitoring and forecasting of electrical storms on a region of Brazilian power transmission line using lightning information only. In the step of storms identification is used spatial/temporal lightning clustering, to monitoring are performed connections between clusters according to the displacement speed of the storms cores and finally the forecast one hour ahead is obtained by data extrapolation. The monitored and forecasted variables of the electrical storms are: center position (latitude and longitude), average number of lightning per hour, spatial distribution of lightning into the storms and average of the absolute value of the peak current of lightning that comprise the storms. The system is calibrated by optimizing an unrestricted problem based on monitoring and forecasting indexes. Practical examples are presented to the pilot region and several graphs illustrate the proposed system product. Key-words: Cluster Analysis. Convergent Data Sharpening. Lightning Strokes. Electrical Storms. Forecast Short Term.
117

Aplicação da análise fatorial na determinação de indicadores dos municípios paranaenses

Santos, Michely Castro dos January 2016 (has links)
Orientador : Prof. Dr. Jair Mendes Marques / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Tecnologia, Programa de Pós-Graduação em Métodos Numéricos em Engenharia. Defesa: Curitiba, 30/08/2016 / Inclui referências : f.70-72 / Área de concentração: Programação matemática / Resumo: No presente estudo, são aplicadas técnicas estatísticas multivariadas para alguns dados disponibilizados pelo Instituto Paranaense de Desenvolvimento Econômico e Social (IPARDES) do Anuário Estatístico do Estado do Paraná de 2013, com a finalidade de obter informações sobre os municípios do estado, a fim de facilitar a aplicação de mecanismos e tomada de decisão para o planejamento governamental, gerando promoção e alocação de investimentos, minimizando as distorções entre os municípios. Os resultados encontrados com a aplicação dos métodos estatísticos foram preparados através do Excel e do software MATLAB. A metodologia adotada inicia-se com a seleção das variáveis originais. Foram estudadas 62 variáveis entre as trabalhadas no Anuário e por conter variáveis com observações faltantes, foram usados dois critérios. O primeiro, descarta a variável, caso tenha muitas observações faltantes e o segundo, calcula, de acordo com o número de habitantes dos municípios, a média aritmética entre os valores informados, para completar os dados. Assim, restaram 58 variáveis originais e a matriz de dados ficou composta por 399 linhas, as quais representam as observações referentes aos municípios paranaenses e 58 colunas, correspondentes às variáveis. Verificou-se que a matriz em estudo não apresenta dados normalizados e por conta disso, não foi aplicado o teste de esfericidade de Bartlett. Através do teste de KMO foi confirmado que o modelo de análise fatorial poderia ser aplicado à matriz de dados. Sendo assim, os resultados obtidos por meio da análise fatorial em conjunto com a análise de componentes principais, determinaram 3 fatores sintéticos, indicando as variáveis mais correlacionadas, as quais contém informações sobre a economia, a infraestrutura, a educação, o indicador humano, sociais e demográficos. Com os escores fatoriais finais ponderados foi possível traçar o perfil de cada município, permitindo estabelecer quais apresentaram alto ou baixo potencial de desenvolvimento em relação a cada fator extraído. Por meio da rotação Varimax, determinou-se que os três fatores são responsáveis por pouco mais de 72% da explicação do sistema. Através dos escores fatoriais finais foram calculados o indicador sintético para cada município e por fim, o ranqueamento, em ordem decrescente de valores, em relação ao potencial de desenvolvimento referente aos fatores estudados. Palavras-chave: Estatística multivariada, análise fatorial, análise de componentes principais, escores fatoriais, municípios paranaenses / Abstract: In the present study, we applied multivariate statistical techniques to the data provided by the Paraná Institute for Economic and Social Development (IPARDES) Statistical 2013 Paraná State Yearbook, in order to obtain information about the cities of the state to facilitate the application mechanisms and decision-making for government planning, producing and promoting investment allocation, minimizing distortions among municipalities. The results with the application of statistical methods were prepared by Excel and MATLAB software. The methodology starts with the selection of the original variables. We studied 62 variables among the ones in the directory and since there were variables with missing observations, two criteria were used. The first, rules out the variable if there are many missing observations and the second calculates, according to the number of inhabitants of the municipalities, the arithmetic mean of the values given to complete the data. As a result, 58 original variables remain, and data matrix ended up being composed of 399 lines, which represents the observations relating to municipal districts and 58 columns corresponding to the variables. It was found that the matrix study has no standardized data and because of that, the Bartlett sphericity test was not applied. Through KMO test it was confirmed that the factor analysis model could be applied to the data matrix. Thus, the results obtained through factor analysis in conjunction with the principal components analysis, determined three synthetic factors, and the most correlated variables, which contains information about the economy, infrastructure, education, human indicator, social and demographic. With the final weighted factor scores it was possible to trace the profile of each city, allowing to establish which had high or low development potential for each factor extracted. Through Varimax rotation, it was determined that three factors are responsible for slightly over 72% of the system's explanation. Through the final factor scores, the calculated synthetic indicator for each municipality was calculated, and finally the ranking, in descending order of values in relation to the development potential regarding the factors studied. Key-words: Multivariate analysis, factor analysis, principal component analysis, factor scores, municipal districts
118

Método Grid-Quadtree para seleção de parâmetros do algoritmo support vector classification (SVC)

Beltrami, Monica January 2016 (has links)
Orientador : Prof. Dr. Arinei Carlos Lindbeck da Silva / Tese (doutorado) - Universidade Federal do Paraná, Setor de Tecnologia, Programa de Pós-Graduação em Métodos Numéricos em Engenharia. Defesa: Curitiba, 01/06/2016 / Inclui referências : f. 143-149 / Área de concentração : Programação matemática / Resumo: O algoritmo Support Vector Classification (SVC) é uma técnica de reconhecimento de padrões, cuja eficiência depende da seleção de seus parâmetros: constante de regularização C, função kernel e seus respectivos parâmetros. A escolha equivocada dessas variáveis impacta diretamente na performance do algoritmo, acarretando em fenômenos indesejáveis como o overfitting e o underfitting. O problema que estuda a procura de parâmetros ótimos para o SVC, em relação às suas medidas de desempenho, é denominado seleção de modelos do SVC. Em virtude do amplo domínio de convergência do kernel gaussiano, a maioria dos métodos destinados a solucionar esse problema concentra-se na seleção da constante C e do parâmetro ? do kernel gaussiano. Dentre esses métodos, a busca por grid é um dos de maior destaque devido à sua simplicidade e bons resultados. Contudo, por avaliar todas as combinações de parâmetros (C, ?) dentre o seu espaço de busca, a mesma necessita de muito tempo de processamento, tornando-se impraticável para avaliação de grandes conjuntos de dados. Desta forma, o objetivo deste trabalho é propor um método de seleção de parâmetros do SVC, usando o kernel gaussiano, que combine a técnica quadtree à busca por grid, para reduzir o número de operações efetuadas pelo grid e diminuir o seu custo computacional. A ideia fundamental é empregar a quadtree para desenhar a boa região de parâmetros, evitando avaliações desnecessárias de parâmetros situados nas áreas de underfitting e overfitting. Para isso, desenvolveu-se o método grid-quadtree (GQ), utilizando-se a linguagem de programação VB.net em conjunto com os softwares da biblioteca LIBSVM. Na execução do GQ, realizou-se o balanceamento da quadtree e criou-se um procedimento denominado refinamento, que permitiu delinear a curva de erro de generalização de parâmetros. Para validar o método proposto, empregaram-se vinte bases de dados referência na área de classificação, as quais foram separadas em dois grupos. Os resultados obtidos pelo GQ foram comparados com os da tradicional busca por grid (BG) levando-se em conta o número de operações executadas por ambos os métodos, a taxa de validação cruzada (VC) e o número de vetores suporte (VS) associados aos parâmetros encontrados e a acurácia do SVC na predição dos conjuntos de teste. A partir das análises realizadas, constatou-se que o GQ foi capaz de encontrar parâmetros de excelente qualidade, com altas taxas VC e baixas quantidades de VS, reduzindo em média, pelo menos, 78,8124% das operações da BG para o grupo 1 de dados e de 71,7172% a 88,7052% para o grupo 2. Essa diminuição na quantidade de cálculos efetuados pelo quadtree resultou em uma economia de horas de processamento. Além disso, em 11 das 20 bases estudadas a acurácia do SVC-GQ foi superior à do SVC-BG e para quatro delas igual. Isso mostra que o GQ é capaz de encontrar parâmetros melhores ou tão bons quanto os da BG executando muito menos operações. Palavras-chave: Seleção de modelos do SVC. Kernel gaussiano. Quadtree. Redução de operações. / Abstract: The Support Vector Classification (SVC) algorithm is a pattern recognition technique, whose efficiency depends on its parameters selection: the penalty constant C, the kernel function and its own parameters. A wrong choice of these variables values directly impacts on the algorithm performance, leading to undesirable phenomena such as the overfitting and the underfitting. The task of searching for optimal parameters with respect to performance measures is called SVC model selection problem. Due to the Gaussian kernel wide convergence domain, many model selection approaches focus in determine the constant C and the Gaussian kernel ? parameter. Among these, the grid search is one of the highlights due to its easiest way and high performance. However, since it evaluates all parameters combinations (C, ?) on the search space, it requires high computational time and becomes impractical for large data sets evaluation. Thus, the aim of this thesis is to propose a SVC model selection method, using the Gaussian kernel, which integrates the quadtree technique with the grid search to reduce the number of operations performed by the grid and its computational cost. The main idea of this study is to use the quadtree to determine the good parameters region, neglecting the evaluation of unnecessary parameters located in the underfitting and the overfitting areas. In this regard, it was developed the grid-quadtree (GQ) method, which was implemented on VB.net development environment and that also uses the software of the LIBSVM library. In the GQ execution, it was considered the balanced quadtree and it was created a refinement procedure, that allowed to delineate the parameters generalization error curve. In order to validate the proposed method, twenty benchmark classification data set were used, which were separated into two groups. The results obtained via GQ were compared with the traditional grid search (GS) ones, considering the number of operations performed by both methods, the cross-validation rate (CV) and the number of support vectors (SV) associated to the selected parameters, and the SVC accuracy in the test set. Based on this analyzes, it was concluded that GQ was able to find excellent parameters, with high CV rates and few SV, achieving an average reduction of at least 78,8124% on GS operations for group 1 data and from 71,7172% to 88,7052% for group 2. The decrease in the amount of calculations performed by the quadtree lead to savings on the computational time. Furthermore, the SVC-GQ accuracy was superior than SVC-GS in 11 of the 20 studied bases and equal in four of them. These results demonstrate that GQ is able to find better or as good as parameters than BG, but executing much less operations. Key words: SVC Model Selection. Gaussian kernel. Quadtree. Reduction Operations
119

Controle de qualidade em dados de radar polarimétrico com apoio de visualizador interativo de dados

Seluzniak, Renan Henrique Luz January 2016 (has links)
Orientador : Prof. Dr. Sergio Scheer / Coorientador : Prof. Dr. Cesar Augustus Assis Beneti / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Tecnologia, Programa de Pós-Graduação em Métodos Numéricos em Engenharia. Defesa: Curitiba, 05/07/2016 / Inclui referências : f.99-104 / Área de concentração: Programação matemática / Resumo: Radares meteorológicos têm a característica de possibilitar a previsão de eventos severos à curto prazo. Porém, a qualidade dos dados provenientes de radares é comumente afetada por sinais indesejados, que não correspondem à precipitação, ocasionados pela presença de insetos e pássaros, topografia e outras interferências. Nesse contexto, sistemas de processamento e visualização interativa possuem grande importância, pois auxiliam a análise e consequente tomada de decisão com base na observação desses dados. Considerando o desenvolvimento da tecnologia de radares ocorrida nos últimos anos, processar e visualizar grandes quantidades de dados tem se tornado um desafio. Este trabalho trata do desenvolvimento de um sistema interativo para processamento e visualização de dados de radares meteorológicos, bem como a implementação de dois algoritmos para o controle da qualidade dos dados (filtros). A visualização interativa e o controle de qualidade desses dados têm particular importância para que analistas possam, de forma rápida e eficaz, extrair informações úteis e tomar decisões. Os dois filtros elaborados se baseiam em trabalhos existentes na literatura. O primeiro utiliza apenas a refletividade para correção dos dados e o segundo utiliza as novas informações disponibilizadas pelo radar polarimétrico dual. As comparações foram realizadas com a comparação com o algoritmo de classificação de hidrometeoros, disponível no software de operação do radar de dupla polarização. Dentre os dois filtros apresentados, a técnica que utiliza as variáveis polarimétricas apresentou melhores resultados em quase todos os requisitos, sendo inferior somente em tempo de processamento. Palavras-chave: Visualização Científica Interativa, Radar Polarimétrico Dual, Controle de Qualidade. / Abstract: Weather radars have the characteristic of enabling the prediction of short term severe events. However, the quality of data from radars is commonly affected by unwanted signals, which do not correspond to the precipitation, caused by the presence of insects and birds, topography and other interferences. In this context, processing systems and interactive visualization are very important because they help the analysis and subsequent decision making based on the observation of such data. Considering the development of radar technology in recent years, processing and viewing large amounts of data became a challenge. This paper reports the development of an interactive system for processing and weather radar data visualization, and the implementation of two algorithms for quality control of data (filters). The interactive visualization and quality control of such data are particularly important for analysts to quickly and effectively extract useful information and make decisions. The implemented filters are based on existing studies in the literature. The first uses only the reflectivity for data correction and the second uses the new information provided by the dual polarimetric radar. The comparisons were performed with the comparison with the hydrometeor classification algorithm, available in the dual polarization radar operational software. Of the two filters shown, the technique that uses the polarimetric variables showed better results in almost all of the requirements and lower results in processing time. Key-words: Interactive Scientific Visualization, Dual Polarimetry Radar, Quality Control.
120

Otimização na contratação de energia sob a ótica das distribuidoras considerando a sazonalização da carga

Freitas, Danielle de January 2017 (has links)
Orientadora : Profa. Dra. Neida Maria Patias Volpi / Coorientadora : Dra. Ana Paula Oening / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Tecnologia, Programa de Pós-Graduação em Métodos Numéricos em Engenharia. Defesa: Curitiba, 24/02/2017 / Inclui referências : p.94-96 / Resumo: O Decreto 5.163/2004 impõe às distribuidoras a contratação de 100% do seu mercado de energia e, no caso de descumprimento dessa regra, as mesmas são sujeitas a perdas financeiras decorrentes da exposição ao Mercado de Curto Prazo (MCP). Para que haja atendimento a essa obrigação, cada distribuidora deve adquirir energia por meio de leilões, sendo os mais comuns: Ajuste, A-1, A-3 e A-5, que possuem tempo de início de suprimento e duração de contratos diferenciados. Também, cada leilão possui limites de compra e de repasse 'a tarifa de energia, sendo que cada categoria de leilão negocia mais de um tipo de produto, com durações de contratos diferenciadas, o que acaba dificultando o planejamento estratégico de compra. Ainda, as distribuidoras precisam, a cada ano, discretizar suas cargas mensalmente, sendo esse processo denominado por sazonalização. Tal processo precisa ser bem executado, de forma que essa discretização mensal fique o mais próximo da curva de demanda para cada mês, visto que uma diferença positiva ou negativa entre a carga alocada mensalmente e a demanda realizada pode acarretar prejuízos financeiros para a distribuidora. Assim, para o desenvolvimento deste trabalho foi proposto um modelo de otimização linear que considerou uma estratégia de contratação com menor custo possível, considerando as diversas categorias de leilões, suas restrições e limitações de repasse de custos, tanto para um horizonte de curto como de longo prazo. No curto prazo considerou-se a contabilização de energia no MCP como mensal, englobandose à contratação o processo de sazonalização, já no longo prazo considerou-se a contabilização de energia em base anual. A partir desse modelo, foram realizados estudos de caso para o horizonte de 2010 a 2015, tomando valores reais praticados no mercado de energia, bem como as informações dos leilões ocorridos e seus produtos. Os resultados mostraram-se promissores, visto que o modelo devolve uma solução de menor custo, utilizando a sazonalização da carga. Foram realizadas comparações entre o modelo proposto e o que realiza a sazonalização somente após a decisão de compras e, para diferentes cenários de Preço de Liquidação das Diferenças (PLD), o modelo proposto se mostrou superior. Por fim, foi realizada uma análise sensibilidade para quantificar os riscos financeiros que a distribuidora está sujeita ao prever sua demanda erroneamente. Palavras-chave: Leilões de energia. Sazonalização. Contratação de energia elétrica. Otimização. / Abstract: The Brazilian decree 5.163/2004 impose on electricity distribution companies to contract energy for one hundred percent of their energy markets. In case of noncompliance, they are subject to financial losses due to Shorth Term Market (MCP) exposure. In order to meet this obligation, each distributor must acquire energy through auctions, the most commons known as Adjust, A-1, A-3 and A-5. Every auction has distinct supply schedules and contracts duration, as well as purchase and tariff onlending limits. Moreover, each auction category trades more than one type of product, with differentiated contracts durations, which hinders the companies' strategic purchases planning. In addition, distributors must, each year, discretize their loads monthly, which is called seasonally. This process needs to be well executed, so that this monthly discretization is closer to the demand curve for each month, since a positive or negative difference between the monthly allocated load and the demand realized can cause financial losses to the distributor. Thus, for the development of this work, a linear optimization model was proposed that considered, a contracting strategy with the lowest possible cost was defined, considering the various categories of auctions, their constraints and cost onlending limitations, both for short-term and long-term horizons. In the short term, monthly energy power accounting was considered at the MCP, including the process of contracting, and the seasonalization. On the other hand, in the long term a yearly energy accounting was considered. The present work did not have the purpose of treating the very short term, where modulation of contracts takes place. From this model, case studies were carried out, for the horizon from 2010 to 2015. Real values practiced in the energy market were applied, as well as the information of the auctions and its products. The results were promising, since the model returned a lower cost solution even using the load seasonalization strategy. Comparisons were made between the proposed model and an alternative that performs the seasonalization only after the purchase decision. For different Settlement Price of Differences (PLD) scenarios the proposed model showed superior. Finally, a sensitivity analysis was performed to quantify the financial risks that the distributor is subject to when applying a wrong forecast of its energy needs. Key-words: Electric power auctions. Seasonalization. Electric power contracting. Optimization.

Page generated in 0.0716 seconds