• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 194
  • 4
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • Tagged with
  • 210
  • 210
  • 210
  • 131
  • 127
  • 95
  • 35
  • 24
  • 23
  • 21
  • 20
  • 20
  • 19
  • 19
  • 18
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
131

Controle coerente das bandas de emissão do ZnO através de algoritmo genético / Coherent control of the emission bands of ZnO using genetic algorithms

Martins, Renato Juliano 14 February 2012 (has links)
Neste trabalho, investigamos o controle coerente das bandas de emissão, excitadas via absorção multifotônica, em um cristal de óxido de Zinco (ZnO) através das formatação de pulsos laser ultracurtos (790 nm, 30 fs, 80 MHz e 5 nJ). O ZnO vem se mostrado um possível candidato a dispositivos fotônicos devido a sua grande energia de ligação de éxciton (60 meV).Inicialmente, implementamos a montagem experimental do sistema de formatação de pulsos, bem como de excitação e coleta da fluorescência do ZnO. O controle coerente foi feito através de um programa baseado em um algoritmo genético (GA), também desenvolvido no transcorrer deste trabalho. Através do algoritmo genético, observamos um ganho significativo da emissão do ZnO por meio de fases espectrais impostas ao pulso laser. Monitorando o traço de autocorrelação do pulso, inferimos que este se torna mais longo após a otimização das bandas de emissão via GA. Além disso, verificamos que as funções de fase que otimizam o processo são complexas e oscilatórias. Através da análise das componentes principais (PCA), fizemos uma análise do conjunto de dados providos pelo GA, onde observamos que este método pode ser usado como um filtro para os dados, suavizando as curvas e enfatizando os aspectos mais importantes das máscaras de fase obtidas pelo controle coerente. Por fim investigamos qual a importância das máscaras suavizadas para o entendimento físico do processo. / In this work, we investigate the coherent control of the emission bands, excited via multiphoton absorption, in a zinc oxide crystal (ZnO) by pulse shaping ultrashort laser pulses (790 nm, 30 fs, 5 nJ and 80 MHz). ZnO has been preposed as a potential material for photonic devices due to its strong exciton binding energy(60 meV). Initially, we have implemented the pulse shaper experimental setup, as well as the fluorescence measurements of ZnO. The coherent control was carried out through genetic algorithm (GA) based software, also developed in the course of this work. Using the genetic algorithm, we have observed a significant increase in the ZnO emission when appropriated spectral phase masks are applied to the laser pulse. Autocorrelation measurements were used to infer the pulse duration, which get longer after optimization of the emission band via GA. Additionally, we have found that the phase masks that optimize the process are complex oscillatory functions. Through the Principal Component Analysis, we analyzed the data provided by the GA and observed that it can be used to filter the data, smoothing the curves and highlighting the most important aspects of phase masks obtained by the coherent control. Finally we investigate how important the smoothed masks are for the physical understanding of the process.
132

Vis-Saúde - Uma metodologia para visualização e análise de dados de saúde pública

Kaieski, Naira 30 July 2014 (has links)
Submitted by Maicon Juliano Schmidt (maicons) on 2015-05-21T16:43:31Z No. of bitstreams: 1 Naira Kaieski_.pdf: 5786537 bytes, checksum: 569a3914f90b146ed5c83be6961e4cbf (MD5) / Made available in DSpace on 2015-05-21T16:43:31Z (GMT). No. of bitstreams: 1 Naira Kaieski_.pdf: 5786537 bytes, checksum: 569a3914f90b146ed5c83be6961e4cbf (MD5) Previous issue date: 2014-07-30 / Nenhuma / Os sistemas computacionais provêem uma série de ferramentas que possibilitam a análise e a extração de conhecimento em um vasto e complexo conjunto de variáveis. O conjunto de dados que compõem um evento, em uma primeira visão sob a forma numérica pura pode não oferecer qualquer tipo de informação mais relevante que subsidie um aprofundamento do estudo. Contudo o emprego de técnicas de visualização em conjunto com metodologias de análise de dados, possibilitam uma compreensão mais sólida de um evento. Possíveis correlações entre as variáveis podem ser evidenciadas mediante o emprego de metodologias de análise, abrindo novas possibilidades de investigação. Enquanto que o emprego de técnicas de visualização de dados apropriadas ao contexto, momento e conjunto de variáveis podem evidenciar informações importantes sobre o evento que permaneciam à sombra dos números. O Vis-Saúde desenvolvido neste trabalho utiliza tecnologias open source para o desenvolvimento de uma metodologia de análise e visualização de dados em um ambiente web onde, se disponíveis, os registros podem ser submetidos à análise e o resultado visualizado em tempo real. Esforços para empregar metodologias de análise e visualização em registros advindos da saúde pública são relevantes a fim de extrair conhecimento do complexo conjunto de dados disponíveis, com o objetivo de orientar a população e os gestores de saúde pública. A metodologia de análise de dados empregada neste trabalho é baseada na análise de componentes principais cujo emprego objetiva encontrar a relação de dependência entre um evento de interesse e outras variáveis relacionadas disponíveis para estudo. A utilização de técnicas de visualização de dados enriquece as possibilidades de compreensão da informação que está sendo estudada. No Vis-Saúde são disponibilizadas duas visualizações georreferenciadas distintas dos registros de saúde, onde ambas são baseadas na região onde o evento ocorreu e apresentadas sobre um mapa geográfico para facilitar a identificação da região de interesse. A primeira contempla a visualização das informações resultantes da análise de dependência entre as variáveis de estudo. A segunda visa facilitar a compreensão da dinâmica da incidência de uma enfermidade com base na apresentação da concentração de ocorrências destas, através de mapas de calor, onde os dados são agrupados em séries temporais e apresentados sob a forma de uma animação mediante a passagem de tempo. A saúde pública é um segmento da administração governamental muito dinâmica, que está constantemente sujeita a situações endêmicas ou epidêmicas. Tal comportamento demanda um monitoramento constante por parte dos gestores a fim de identificar situações graves para as quais devem ser direcionadas ações e recursos. Para demonstrar o funcionamento da metodologia com dados reais, foram utilizados os registros quanto à incidência de dengue no Brasil. A dengue é uma enfermidade presente em todos os estados da federação e que representa um risco grave à saúde coletiva da população, uma vez que a incidência desta doença tem aumentado nos últimos anos. / Computer systems provide a set of tools that allow the analysis and extraction of knowledge in a large and complex set of variables. The set of data that form an event, in a first analysis under numerical form can not show any important information to support a deep study of the data. Although the use of visualization techniques with data analysis methodologies can allow a best comprehension about an event. Possible correlations between variables can be evidenced by the use of methodologies of analysis that open a set of new possibilities of research. The use of data visualization techniques according to the context, moment and set of variables can show important information about an event that was hidden by numbers. Vis-Health shown in this paper used open source technologies to develop an analysis and visualization methodology of data in an web environment, where if the data are available, the registers can be processed and the result shown in real time. Efforts to utilize analysis and visualization methodologies in a set of public health data are relevant to extract knowledge of the complex data set available with the goal of guiding the population and public health managers. The methodology analysis used in this paper is based on principal component analysis with the aim to find the dependency relationship between an event of interest and other related variables available for study. The use of data visualization techniques enhances the possibilities of comprehension of the information that is being studied. Vis-Health provided two distinct georeferenced views of health records, where both are based in the region where the event occurred and displayed on a geographical map for easy identification of the region of interest. The first visualization is showing the result of the dependency analysis between the variables of study. The second one has the aim to make more dynamic the comprehension about the incidence of a disease through the presentation of concentration of events occurred using heat map. In this visualization the data are grouped in temporal series and displayed with an animation with temporal passage. The public health is a very dynamic segment of government administration that is always threatened with endemic or epidemic situations. This behavior requires a constant monitoring of managers to identify serious situations that can require more attention and resources. With the goal to demonstrate the operation of the methodology with real data, the registers about dengue incidence in Brazil were used. Dengue is a disease present in all Brazil’s states and represents a serious risk to the collective health considering that the incidence has increasing in the latest years.
133

Uma Abordagem para Detecção Automática de Planos em Modelos Digitais de Afloramentos Baseada em PCA

Gomes, Róbson Koszeniewski 19 September 2014 (has links)
Submitted by Nara Lays Domingues Viana Oliveira (naradv) on 2015-07-15T18:16:55Z No. of bitstreams: 1 ROBSON.pdf: 2705073 bytes, checksum: d6eefccd3ecb288572c9262f7dc4079a (MD5) / Made available in DSpace on 2015-07-15T18:16:55Z (GMT). No. of bitstreams: 1 ROBSON.pdf: 2705073 bytes, checksum: d6eefccd3ecb288572c9262f7dc4079a (MD5) Previous issue date: 2014 / PROCERGS - Companhia de Processamento Dados do Estado Rio Grande Sul / A coleta de dados espaciais tem sido intensamente empregada na área geológica, através da técnica de LIDAR (Light Detection and Ranging). Este tipo de sensoriamento digital remoto de alta resolução e precisão, resulta em modelos digitais 3D que permitem uma análise mais detalhada e quantitativa de estruturas heterôgeneas, como afloramentos. Um dos estudos realizados pelos geólogos são análises sobre a geometria da formação de rochas, onde a informação de orientação de um plano inclinado é um indicativo para a compreensão global da estrutura. Este trabalho propõe a utilização da técnica de Análise de Componentes Principais (PCA) para calcular e detectar automaticamente todos os planos em uma nuvem de pontos. Uma ferramenta foi construída para implementar a visualização do modelo digital e apurar os melhores planos. Um estudo foi realizado a fim de validar as informações encontradas pelo método proposto e dados medidos em campo. / The use of LIDAR (Light Detection and Ranging) systems for gathering spatial data has been extensively used in geological studies. This type of digital remote sensing delivers high resolution and accuracy, resulting in 3D digital models which allow a more detailed and quantitative analysis of heterogeneous structures, as outcrops. One of the studies is based on analysis of the forming rocks geometry. The orientation of a slope plane is an indication for the overall undestanding of the structure. This work proposes a new method to automatically compute and detect all possible planes in a point cloud, based on Principal Component Analysis (PCA) technique. A software tool was constructed to implement the digital model visualization and compute the best planes. A study was conducted to compare and validate the results of the method and the field data collected.
134

Reamostragem adaptativa para simplificação de nuvens de pontos

Silva, Fabrício Müller da 31 August 2015 (has links)
Submitted by Silvana Teresinha Dornelles Studzinski (sstudzinski) on 2015-10-27T14:34:35Z No. of bitstreams: 1 Fabrício Müller da Silva_.pdf: 105910980 bytes, checksum: 4ce66a9d5fff9a2b2a97835c54dac355 (MD5) / Made available in DSpace on 2015-10-27T14:34:35Z (GMT). No. of bitstreams: 1 Fabrício Müller da Silva_.pdf: 105910980 bytes, checksum: 4ce66a9d5fff9a2b2a97835c54dac355 (MD5) Previous issue date: 2015-08-31 / Nenhuma / Este trabalho apresenta um algoritmo para simplificação de nuvens de pontos baseado na inclinação local da superfície amostrada pelo conjunto de pontos de entrada. O objetivo é transformar a nuvem de pontos original no menor conjunto possível, mantendo as características e a topologia da superfície original. O algoritmo proposto reamostra de forma adaptativa o conjunto de entrada, removendo pontos redundantes para manter um determinado nível de qualidade definido pelo usuário no conjunto final. O processo consiste em um particionamento recursivo do conjunto de entrada através da Análise de Componentes Principais (PCA). No algoritmo, PCA é aplicada para definir as partições sucessivas, para obter uma aproximação linear (por planos) em cada partição e para avaliar a qualidade de cada aproximação. Por fim, o algoritmo faz uma escolha simples de quais pontos serão mantidos para representar a aproximação linear de cada partição. Estes pontos formarão o conjunto de dados final após o processo de simplificação. Para avaliação dos resultados foi aplicada uma métrica de distância entre malhas de polígonos, baseada na distância de Hausdorff, comparando a superfície reconstruída com a nuvem de pontos original e aquela reconstruída com a nuvem filtrada. Os resultados obtidos com o algoritmo conseguiram uma taxa de até 95% de compactação do conjunto de dados de entrada, diminuindo o tempo total de execução do processo de reconstrução, mantendo as características e a topologia do modelo original. A qualidade da superfície reconstruída com a nuvem filtrada também é atestada pela métrica de comparação. / This paper presents a simple and efficient algorithm for point cloud simplification based on the local inclination of the surface sampled by the input set. The objective is to transform the original point cloud in a small as possible one, keeping the features and topology of the original surface. The proposed algorithm performs an adaptive resampling of the input set, removing unnecessary points to maintain a level of quality defined by the user in the final dataset. The process consists of a recursive partitioning in the input set using Principal Component Analysis (PCA). PCA is applied for defining the successive partitions, for obtaining the linear approximations (planes) for each partition, and for evaluating the quality of those approximations. Finally, the algorithm makes a simple choice of the points to represent the linear approximation of each partition. These points are the final dataset of the simplification process. For result evaluation, a distance metric between polygon meshes, based on Hausdorff distance, was defined, comparing the reconstructed surface using the original point clouds and the reconstructed surface usingthe filtered ones. The algorithm achieved compression rates up to 95% of the input dataset,while reducing the total execution time of reconstruction process, keeping the features and the topology of the original model. The quality of the reconstructed surface using the filtered point cloud is also attested by the distance metric.
135

Avaliação da qualidade de águas pluviais armazenadas e estudos de tratabilidade empregando filtro de pressão com diferentes meios filtrantes visando ao aproveitamento para fins não potáveis /

Nakada, Liane Yuri Kondo. January 2012 (has links)
Orientador: Rodrigo Braga Moruzzi / Banca: Alexandre Silveira / Banca: Samuel Conceição de Oliveira / Resumo: O presente trabalho foi desenvolvido em três etapas, cronologicamente: i) estudo da qualidade de águas pluviais coletadas por telhada por telhado cerâmico e armazenadas; ii) modificações em estado experimental em escala real de coleta e tratamento simplificado de águas pluviais, para possibilitar o estudo de três diferentes meios filtrantes; e iii) coletas, estudos de tratabilidade em escala de bancada e estudos do tratamento em escala real. Os resultados indicam que: i) as águas pluviais coletadas após escoamento sobre telhados cerâmicos necessitam de tratamento para assegurar o uso, mesmo que para atividades não potáveis, conforme recomendações da NBR 15527 (ABNT, 2007); cada precipitação possui aspectos qualitativos particulares, significativamente dependentes do período de estiagem antecedente à chuva, de modo que demandam ensaios de tratabilidade para cada evento: ii) a implantação de sistemas de coleta e tratamento/aproveitamento de águas pluviais em novos empreendimentos imobiliários é mais conveniente do que a inclusão desse sistemas como adaptação de sistemas de água já existentes; iii) para as águas pluviais estudadas, em nenhuma configuração de tratamento foi integralmente atendido o padrão de qualidade recomendado pela NBR 15527 (ABNT, 2007), entretanto, a estratégia de tratamento simplificado investigado pode produzir água com a qualidade recomendada / Abstract: The present work was developed in three steps, in the following chronological order: i) study of the quality o stored roof-harvested rainwater; ii) modifications in the full-scale experimental plant for rainwater harvesting and simplified treating, to enable the study of three different media filter, iii) harvest of rainwater, treatability studies in bench scale and study of the full-scale treatment. The results indicate that: i) the ceramic roof-harvested rainwater require treatment to safeguard uses, even for non-drinkable purposes, according to recommendations of the current norm NBR 15527 (ABNT, 2007); each rain event presents specific qualitative aspects, significantly dependent on the dry days before the rain, hence, each harvested rainwater demands treatability studies; ii) the implementation of rainwater harvesting and treatment systems in new buildings is more convenient than the addition of those systems as adaptations of water systems from previolusly existing buildings. iii) for the studied rainwater, nome of the treatment configurations completely met the quality recommended by norm, through, the treatment strategy can produce water which meet the quality recommendations / Mestre
136

Análise e extração de características de imagens termográficas utilizando componentes principais

Santos, Gilnete Leite dos [UNESP] 15 July 2010 (has links) (PDF)
Made available in DSpace on 2014-08-13T14:50:31Z (GMT). No. of bitstreams: 0 Previous issue date: 2010-07-15Bitstream added on 2014-08-13T18:01:19Z : No. of bitstreams: 1 santos_gl_me_ilha.pdf: 4835852 bytes, checksum: 8f5c7964f7834bad1240378b2d45737b (MD5) / As técnicas de termografia vêm atualmente ganhando espaço como técnicas de manutenção preditiva, principalmente, por seu caráter não invasivo (ferramenta de não contato) que possibilita o monitoramento do aquecimento de máquinas e equipamentos em operação ou mesmo energizados. A utilização de câmeras termográficas hoje é uma realidade em vários setores industriais para monitoramento e detecção de falhas com base na temperatura. Entretanto, a utilização de câmaras termográficas na manutenção não deve se restringir apenas à avaliação da temperatura, uma vez que as imagens termográficas são sinais que apresentam padrões complexos que podem captar as diferentes características e condição de operação do equipamento. Outras informações além da temperatura poderiam ser observadas para uma avaliação mais consistente do estado de operação do equipamento. Este trabalho discute a utilização da técnica da estatística multivariada, Análise de Componentes Principais (ACP) para o processamento e análise de um conjunto de imagens termográficas. Essa proposta visa à identificação de padrões associados às variações térmicas das imagens, bem como, a interpretação desses dados em termos da sua variabilidade espacial/temporal para aplicação na manutenção preditiva com base na termografia. Num primeiro momento a técnica foi aplicada para a avaliação de um conjunto de dados (imagens térmicas) obtidos a partir da simulação do aquecimento de um dado componente (chave elétrica), cujo objetivo foi testar e verificar a validade da proposta e do programa desenvolvido. Posteriormente a técnica foi aplicada para o acompanhamento e avaliação do aquecimento de componentes de um modelo simplificado de um painel de telefonia, formado por blocos de alumínio fixados em uma placa de acrílico. A análise no modo espacial e no modo temporal do conjunto de ... (Resumo completo, clicar acesso eletrônico abaixo) / Thermography techniques are currently gaining ground as predictive maintenance techniques, mainly due to its non-invasive character (non-contact tool) that allows the monitoring of heating condition of machines and equipment also in operation and even energized. The use of thermographic cameras is now a reality in many industrial and electrical sectors for monitoring and fault detection based on temperature. However, the use of thermal imagers in the maintenance should not be restricted to only the evaluation of temperature, since the thermographic images are signs that show complex patterns and they can capture the different characteristics of the actual condition of the monitored equipment. Information other than temperature could be observed for a more consistent evaluation of its state of operation. This paper discusses the propose of use of the multivariate analysis technique, Principal Component Analysis (PCA) for the processing and analysis of a series of thermographic images in order to identify patterns associated with temperature variations of the images, as well as, the interpretation of these data in terms of their spatial/temporal variability. Initially the technique was used to the analysis of data (thermal images) obtained from the simulation of heating conditions of a component (electric switch) aiming at to test and verify the validity of the proposal and program development. Later the technique was applied to the monitoring and evaluation of the heating condition of components of a simplified model of a telephone panel, formed by aluminum blocks fixed in a plate of acrylic. The analysis in the spatial and temporal mode of the set of thermograms obtained for different heating conditions of the blocks, it showed that it is possible to verify and establish correlations between the Principal Components and the thermal profile of the system
137

CLASSIFICAÇÃO DE FASES EM IMAGENS HIPERESPECTRAIS DE RAIOS X CARACTERÍSTICOS PELO MÉTODO DE AGRUPAMENTO POR DESLOCAMENTO PARA A MÉDIA / PHASE CLASSIFICATION IN CHARACTERISTIC X-RAYS HYPERSPECTRAL IMAGES BY MEAN SHIFT CLUSTERING METHOD

Martins, Diego Schmaedech 23 January 2012 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / In the present work we introduce the Mean Shift Clustering (MSC) algorithm as a valuable alternative to perform materials phase classification from hyperspectral images. As opposed to other multivariate statistical techniques, such as principal components analysis (PCA), clustering techniques directly assign a class (phase) label to each pixel, so that their outputs are phase segmented images, i.e. , there is no need for an additional segmentation algorithm. On the other hand, as compared to other clustering procedures and classification methods based on cluster analysis, MSC has the advantages of not requiring previous knowledge of the number of data clusters and not assuming any shape of these clusters, i.e., neither the number nor the composition of the phases must be previously known. This makes MSC a particularly useful tool for exploratory research, allowing automatic phase identification of unknown samples. Other advantages of this approach are the possibility of multimodal image analysis, composed of different types of signals, and estimate the uncertainties of the analysis. Finally, the visualization and interpretation of results are also simplified, since the information content of the output image does not depend on any arbitrary choice of the contents of the color channels. In this paper we apply the PCA and MSC algorithms for the analysis of characteristic X-ray maps acquired in Scanning Electron Microscopes (SEM) which is equipped with Energy Dispersive Detection Systems (EDS). Our results indicate that MSC is capable of detecting minor phases, not clearly identified when only three components obtained by PCA are used. / No presente trabalho será introduzido o algoritmo de Agrupamento por Deslocamento para a Média (ADM) como uma alternativa para executar a classificação de fases em materiais a partir de imagens hiperspectrais de mapas raios X característicos. Ao contrário de outras técnicas estatísticas multivariadas, tal como Análise de Componentes Principais (ACP), técnicas de agrupamentos atribuiem diretamente uma classe de rótulo (fase) para cada pixel, de modo que suas saídas são imagens de fase segmentadas, i.e., não há necessidade de algoritmos adicionais para segmentação. Por outro lado, em comparação com outros procedimentos de agrupamento e métodos classificação baseados em análise de agrupamentos, ADM tem a vantagem de não necessitar de conhecimento prévio do número de fases, nem das formas dos agrupamentos, o que faz dele um instrumento particularmente útil para a pesquisa exploratória, permitindo a identificação automática de fase de amostras desconhecidas. Outras vantagens desta abordagem são a possibilidade de análise de imagens multimodais, compostas por diferentes tipos de sinais, e de estimar as incertezas das análises. Finalmente, a visualização e a interpretação dos resultados também é simplificada, uma vez que o conteúdo de informação da imagem de saída não depende de qualquer escolha arbitrária do conteúdo dos canais de cores. Neste trabalho foram aplicados os algoritmos de ADM e ACP para a análise de mapas de raios X característicos adquiridos em Microscópios de Varredura Eletrônica (MEV) que está equipado com um Espectrômetro de Raios X por Dispersão em Energia (EDS). Nossos resultados indicam que o método ADM é capaz de detectar as fases menores, não claramente identificadas nas imagens compostas pelo três componentes mais significativos obtidos pelo método ACP.
138

APLICAÇÃO DE TÉCNICAS ESTATÍSTICAS MULTIVARIADAS EM DADOS DE CERÂMICA VERMELHA PRODUZIDA NA REGIÃO CENTRAL DO RIO GRANDE DO SUL

Saad, Danielle de Souza 10 September 2009 (has links)
This work aimed the application of multivaried statistical techniques using Software STATISTICA 7.0 for Windows, in the analysis of red ceramics data produced in the Central region of the state of the Rio Grande do Sul. The used variable had been: total monthly production, massive number of ceramic industries, bricks, structural blocks. The used techniques had been Cluster Analysis, Factor Analysis, and Principal Components Analysis. The objective of the technique of Cluster Analysis is to determine the degree of similarity between the variables. The Factor Analysis aims to reduce the number variable analyzed in agreement with the Cluster Analysis. The degree of contribution of the variable in the formation of the factors is identified by the technique of Principal Components Analysis. The work concluded that the techniques can be applied in data of ceramic products, because of the results had confirmed previous works. The employed techniques had demonstrated to be pertinent to the considered objectives. / Este trabalho visou empregar técnicas estatísticas multivariadas através do Software STATISTICA 7.0 for Windows, na análise de dados de cerâmica vermelha produzidos na região Central do estado do Rio Grande do Sul. As variáveis utilizadas foram: produção mensal total, número de indústrias cerâmicas, tijolos maciços, blocos de vedação e blocos estruturais. As técnicas utilizadas foram Análise de Agrupamento, Análise Fatorial, e Análise de Componentes Principais. O objetivo da técnica de Análise de Agrupamento é determinar o grau de similaridade entre as variáveis. A Análise Fatorial visa reduzir o número de variáveis analisadas em concordância com a Análise de Agrupamento. O grau de contribuição das variáveis na formação dos fatores é identificado pela técnica de Análise de Componentes Principais. No trabalho concluiu-se que as técnicas podem ser aplicadas em dados de produtos cerâmicos, pois os resultados obtidos confirmaram resultados e conclusões obtidas em trabalhos anteriores. As técnicas empregadas demonstraram ser pertinentes aos objetivos propostos.
139

Tranformada wavelet e redes neurais artificiais na análise de sinais relacionados à qualidade da energia elétrica / Wavelet transform and artificial neural networks in power quality signal analysis

Pozzebon, Giovani Guarienti 10 February 2009 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / This work presents a different method for power quality signal classification using the principal components analysis (PCA) associated to the wavelet transform (WT). The standard deviation of the detail coefficients and the average of the approximation coefficients from WT are combined to extract discriminated characteristics from the disturbances. The PCA was used to condense the information of those characteristics, than a smaller group of characteristics uncorrelated were generated. These were processed by a probabilistic neural network (PNN) to accomplish the classifications. In the application of the algorithm, in the first case, seven classes of signals which represent different types of disturbances were classified, they are as follows: voltage sag and interruption, flicker, oscillatory transients, harmonic distortions, notching and normal sine waveform. In the second case were increased four more situations that usually happen in distributed generation systems connected to distribution grids through converters, they are as follows: connection of the distributed generation, connection of local load, normal operation and islanding occurrence. In this case, the voltage on the point of common coupling between GD and grid were measured by simulations and were analyzed by the proposed algorithm. In both cases, the signals were decomposed in nine resolution levels by the wavelet transformed, being represented by detail and approximation coefficients. The application of the WT generated a lot of variations in the coefficients. Therefore, the application of the standard deviation in different resolution levels can quantify the magnitude of the variations. In order to take into account those features originated from low frequency components contained in the signals, was proposed to calculate the average of the approximation coefficients. The standard deviations of the detail coefficients and the average of the approximation coefficients composed the feature vector containing 10 variables for each signal. Before accomplishing the classification these vectors were processed by the principal component analysis algorithm in order to reduce the dimension of the feature vectors that contained correlated variables. Consequently, the processing time of the neural network were reduced to. The principal components, which are uncorrelated, were ordered so that the first few components account for the most variation that all the original variables acted previously. The first three components were chosen. Like this, a new group of variables was generated through the principal components. Thus, the number of variables on the feature vector was reduced to 3 variables. These 3 variables were inserted in a neural network for the classification of the disturbances. The output of the neural network indicates the type of disturbance. / Este trabalho apresenta um diferente método para a classificação de distúrbios em sinais elétricos visando analisar a qualidade da energia elétrica (QEE). Para isso, a análise de componentes principais (ACP) e a transformada wavelet (TW) são associadas. O desvio padrão dos coeficientes de detalhes e a média dos coeficientes de aproximação da TW são combinados para extrair características discriminantes dos distúrbios. A ACP é utilizada para condensar a informação dessas características, originando um conjunto menor de características descorrelacionadas. Estas são processadas por uma rede neural probabilística (RNP) para realizar as classificações. Na aplicação do algoritmo, inicialmente, foram utilizadas senóides puras e seis classes de sinais que representam os diferentes tipos de distúrbios: afundamentos e interrupções de tensão, flicker, transitórios oscilatórios, distorções harmônicas e notching. Em seguida, são acrescentadas mais quatro situações ocorridas em sistemas de geração distribuída (GD) conectados em redes de distribuição através de conversores. São elas: conexão da geração distribuída, conexão de carga local, operação normal e ocorrência de ilhamento. Neste caso, os sinais de tensão no ponto de acoplamento comum (PAC) entre a GD e a rede são medidos e analisados pelo algoritmo. Em ambos os casos, os sinais são decompostos em nove níveis de resolução pela transformada wavelet, ficando representados por coeficientes de detalhes e aproximações. A aplicação da transformada wavelet discreta gera muitas variações nos coeficientes. Por isso a aplicação do desvio padrão, nos diferentes níveis de resolução, é capaz de quantificar a magnitude destas variações. Para considerar as características originadas pelas componentes de baixa freqüência contidas nos sinais, propõe-se o uso da média dos coeficientes de aproximação do sinal. Os desvios padrões dos coeficientes de detalhes e a média da aproximação compõem um vetor de características contendo 10 variáveis para cada sinal analisado. Antes de realizar a classificação estes vetores passam por um algoritmo de análise das componentes principais, visando reduzir a dimensão dos vetores de características que continham variáveis correlacionadas e conseqüentemente, reduzir o tempo de processamento da rede neural. As componentes principais, descorrelacionadas, são ordenadas de forma que as primeiras componentes contenham a maior parte das informações das variáveis originais. Dessa forma, as três primeiras componentes são escolhidas, pois elas representam cerca de 90% das informações relacionadas com o sinal em estudo. Assim, um novo conjunto de variáveis é gerado através das componentes principais, reduzindo o número de variáveis contidas no vetor de características de 10 (dez) para 3 (três). Finalmente, estas 3 variáveis são inseridas em uma rede neural para a classificação dos distúrbios de forma que o resultado da rede neural indica o tipo de distúrbio presente no sinal analisado.
140

Análise e extração de características de imagens termográficas utilizando componentes principais /

Santos, Gilnete Leite dos. January 2010 (has links)
Orientador: João Antonio Pereira / Banca: Amarildo Tabone Paschoalini / Banca: Renê Pegoraro / Resumo: As técnicas de termografia vêm atualmente ganhando espaço como técnicas de manutenção preditiva, principalmente, por seu caráter não invasivo (ferramenta de não contato) que possibilita o monitoramento do aquecimento de máquinas e equipamentos em operação ou mesmo energizados. A utilização de câmeras termográficas hoje é uma realidade em vários setores industriais para monitoramento e detecção de falhas com base na temperatura. Entretanto, a utilização de câmaras termográficas na manutenção não deve se restringir apenas à avaliação da temperatura, uma vez que as imagens termográficas são sinais que apresentam padrões complexos que podem captar as diferentes características e condição de operação do equipamento. Outras informações além da temperatura poderiam ser observadas para uma avaliação mais consistente do estado de operação do equipamento. Este trabalho discute a utilização da técnica da estatística multivariada, Análise de Componentes Principais (ACP) para o processamento e análise de um conjunto de imagens termográficas. Essa proposta visa à identificação de padrões associados às variações térmicas das imagens, bem como, a interpretação desses dados em termos da sua variabilidade espacial/temporal para aplicação na manutenção preditiva com base na termografia. Num primeiro momento a técnica foi aplicada para a avaliação de um conjunto de dados (imagens térmicas) obtidos a partir da simulação do aquecimento de um dado componente (chave elétrica), cujo objetivo foi testar e verificar a validade da proposta e do programa desenvolvido. Posteriormente a técnica foi aplicada para o acompanhamento e avaliação do aquecimento de componentes de um modelo simplificado de um painel de telefonia, formado por blocos de alumínio fixados em uma placa de acrílico. A análise no modo espacial e no modo temporal do conjunto de ... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: Thermography techniques are currently gaining ground as predictive maintenance techniques, mainly due to its non-invasive character (non-contact tool) that allows the monitoring of heating condition of machines and equipment also in operation and even energized. The use of thermographic cameras is now a reality in many industrial and electrical sectors for monitoring and fault detection based on temperature. However, the use of thermal imagers in the maintenance should not be restricted to only the evaluation of temperature, since the thermographic images are signs that show complex patterns and they can capture the different characteristics of the actual condition of the monitored equipment. Information other than temperature could be observed for a more consistent evaluation of its state of operation. This paper discusses the propose of use of the multivariate analysis technique, Principal Component Analysis (PCA) for the processing and analysis of a series of thermographic images in order to identify patterns associated with temperature variations of the images, as well as, the interpretation of these data in terms of their spatial/temporal variability. Initially the technique was used to the analysis of data (thermal images) obtained from the simulation of heating conditions of a component (electric switch) aiming at to test and verify the validity of the proposal and program development. Later the technique was applied to the monitoring and evaluation of the heating condition of components of a simplified model of a telephone panel, formed by aluminum blocks fixed in a plate of acrylic. The analysis in the spatial and temporal mode of the set of thermograms obtained for different heating conditions of the blocks, it showed that it is possible to verify and establish correlations between the Principal Components and the thermal profile of the system / Mestre

Page generated in 0.1446 seconds