Spelling suggestions: "subject:"redes neurais artificial"" "subject:"aedes neurais artificial""
491 |
Explorando alternativas para construção de modelos neurais de interação espacial / Exploring alternatives for the construction of neural spatial interaction modelsAlexandra Akamine 27 September 2005 (has links)
O rápido crescimento das cidades brasileiras, não acompanhado de um planejamento prévio de sua expansão (incluindo o uso e a ocupação do solo), vem acarretando transtornos à comunidade no que se refere aos deslocamentos, visto que estes se tornam cada vez maiores. Devido a isso, torna-se necessário um conhecimento das demarcações das áreas do município, dos tipos de serviços atualmente prestados à comunidade em cada área e dos usuários destes serviços, não só em termos quantitativos, mas principalmente no que diz respeito à sua distribuição no espaço. Mais ainda, o conhecimento da evolução da demanda no tempo e a sua localização espacial permitem a avaliação de inúmeros cenários de gestão da demanda e da oferta, possibilitando, por exemplo, prever em qual região haverá um crescimento maior da primeira. Outros aspectos que devem ser avaliados são a origem, o destino e o volume de deslocamentos que ocorrem em um determinado conjunto de zonas, o que pode ser estimado através de modelos de interação espacial. Neste sentido, foram realizados estudos com o objetivo de avaliar o desempenho de modelos de interação espacial construídos com Redes Neurais Artificiais (RNAs). Observou-se nestes estudos, uma carência de técnicas para seleção da rede neural a ser utilizada na modelagem, ou seja, a rede com melhor desempenho e poder de predição. Tal como a maioria dos trabalhos que utilizam Redes Neurais Artificiais para este tipo de modelagem, os parâmetros de rede são escolhidos aleatoriamente e, ainda que se consiga resultados satisfatórios variando-se tais parâmetros, nem sempre a rede utilizada representa a solução ótima. O objetivo desta pesquisa é avaliar o uso de diferentes alternativas, tais como a técnica de otimização de Algoritmos Genéticos (AGs) na seleção de Redes Neurais Artificiais e o método de estimação por bootstrap na divisão dos dados, para a construção de modelos de interação espacial, e avaliar a distribuição espacial dos resíduos (erros) das previsões. O estudo foi desenvolvido em um Sistema de Informações Geográficas (SIG) e os dados empregados para este fim refletem a evolução espacial da demanda por serviços municipais de educação numa cidade média brasileira (São Carlos, SP) ao longo de dois anos. Os resultados deste trabalho mostraram que, embora a utilização dos modelos neurais seja apropriada para a estimativa de fluxos, a partir do método gravitacional é possível mensurar de forma precisa e aceitável o crescimento e a distribuição espacial da demanda futura por serviços de educação, permitindo-se identificar quais devem ser as melhores ações a serem tomadas pelo poder público no presente com o intuito de reduzir as distâncias de deslocamento dos alunos no futuro. Isto é particularmente importante para ações de planejamento, em virtude da simplicidade do modelo e de sua fácil e direta implementação / The rapid growth of Brazilian cities, without a previous planning of their expansion (including land use and occupation), causes many inconveniences for the population related to their transportation, as they must cover longer distances. This asks for an understanding of the city areas limits, the services currently offered to the community in each area, and the users of these services, not only in quantitative terms, but also in terms of spatial distribution. Moreover, the knowledge of the demand evolution in time and its spatial location allows the evaluation of many planning scenarios for managing the demand and the supply, and it is possible, for example, to foresee the regions where the demand is going to be concentrated. Other aspects that must be evaluated are the origin, destination and number of trips that occur in a determined set of tracts, which can be predicted by the spatial interaction models. Therefore, some studies were made with the objective of evaluating the performance of Spatial Interaction Models based on Artificial Neural Networks (ANNs). It was observed in these studies, some difficulty in selecting the neural network configuration that best models the problem. As in the majority of research that uses Artificial Neural Networks for the construction of that kind of model, the network parameters are randomly chosen and, even if one can obtain satisfactory results by varying these parameters, the neural net used may not be producing the optimal solution. The objective of this work is to evaluate the use of different alternatives, such as the Genetic Algorithms (GAs) optimization technique and the bootstrapping estimation method, as supporting tools to select Artificial Neural Networks configurations applied to Spatial Interaction Models, and to evaluate the spatial distribution of the residual (errors) prediction results. The research was developed in a Geographic Information System (GIS) and the data used for this application reflects the changes in the spatial distribution of the demand for education services in a Brazilian medium-sized city (São Carlos, SP) throughout two years. The results obtained showed that although neural models are suitable for estimating transportation flows, gravity models are able to produce very good and precise estimates of the future spatial distribution of the demand for educational facilities. This is very important for the planning process aiming at the reduction of displacement costs of students in the future, given the simplicity of the gravity model structure and its straightforward implementation
|
492 |
Comparação entre métodos de normalização de iluminação utilizados para melhorar a taxa do reconhecimento facial / Comparison between illumination normalization methods used to improve the rate of facial recognitionMichelle Magalhães Mendonça 25 June 2008 (has links)
Condições distintas de iluminação numa imagem podem produzir representações desiguais do mesmo objeto, dificultando o processo de segmentação e reconhecimento de padrões, incluindo o reconhecimento facial. Devido a isso, a distribuição de iluminação numa imagem é considerada de grande importância, e novos algoritmos de normalização utilizando técnicas mais recentes ainda vêm sendo pesquisados. O objetivo dessa pesquisa foi o de avaliar os seguintes algoritmos de normalização da iluminação encontrados na literatura, que obtiveram bons resultado no reconhecimento de faces: LogAbout, variação do filtro homomórfico e método baseado em wavelets. O objetivo foi o de identificar o método de normalização da iluminação que resulta na melhor taxa de reconhecimento facial. Os algoritmos de reconhecimento utilizados foram: auto-faces, PCA (Principal Component Analyses) com rede neural LVQ (Learning Vector Quantization) e wavelets com rede neural MLP (Multilayer Perceptron). Como entrada, foram utilizadas imagens do banco Yale, que foram divididas em três subconjuntos. Os resultados mostraram que o método de normalização da iluminação que utiliza wavelet e LogAbout foram os que apresentaram melhoria significativa no reconhecimento facial. Os resultados também evidenciaram que, de uma maneira geral, com a utilização dos métodos de normalização da iluminação, obtém-se uma melhor taxa do reconhecimento facial, exceto para o método de normalização variação do filtro homomórfico com os algoritmos de reconhecimento facial auto-faces e wavelet com rede neural MLP. / Distinct lighting conditions in an image can produce unequal representations of the same object, compromising segmentation and pattern recognition processes, including facial recognition. Hence, the lighting distribution on an image is considered of great importance, and normalization algorithms using new techniques have still been researched. This research aims to evaluate the following illumination normalization algorithms found in literature: LogAbout, variation of homomorphic filter and wavelet based method. The main interest was to find out the illumination normalization method which improves the facial recognition rate. The algorithms used for face recognition were: eigenfaces, PCA (Principal Component Analysis) with LVQ neural network and wavelets with MLP (Multilayer Perceptron) neural network. Images from Yale Face Database B, divided into three subsets have been used. The results show that the wavelet and LogAbout technique provided the best facial recognition rate. Experiments showed that the illumination normalization methods, in general, improve the facial recognition rate, except for the variation of homomorphic filter technique with the algorithms: eigenfaces and PCA with LVQ.
|
493 |
Predição de séries temporais econômicas por meio de redes neurais artificiais e transformada Wavelet: combinando modelo técnico e fundamentalista / Technique of economic time series prediction by artificial neural network and wavelet transform: joining technical and fundamental modelAnderson da Silva Soares 07 March 2008 (has links)
Este trabalho apresenta um método de predição não linear de séries temporais econômicas. O método baseia-se na análise técnica e fundamentalista de cotação de ações, filtragem wavelet, seleção de padrões e redes neurais artificiais. No modelo técnico emprega-se a transformada wavelet para filtrar a série temporal econômica de comportamentos aleatórios ou não econômicos. Após a filtragem dos dados o algoritmo de projeções sucessivas é utilizado para a seleção de padrões de treinamento para a rede neural artificial, com o objetivo de selecionar os padrões de comportamento mais importantes na série. No modelo fundamentalista utiliza-se variáveis econômicas que podem estar correlacionadas com a série, com o objetivo de aprimorar a predição da série na rede neural artificial. Para avaliação do método são utilizados dados de séries temporais econômicas referentes à cotação de preços de ações negociadas na bolsa de valores de São Paulo, onde os resultados da predição do comportamento futuro são comparados com modelos matemáticos clássicos e com o modelo convencional, que se baseia somente na análise técnica. Apresenta-se uma comparação dos resultados entre modelos técnicos, modelos matemáticos e o método proposto. O modelo matemático utilizado (ARIMA) apresentou seu melhor desempenho em séries com pouca variância, porém com desempenho inferior quando comparado com o modelo técnico e com o método proposto. A avaliação do erro de predição em termos de RMSEP evidenciou que o método proposto apresenta os melhores resultados em relação aos demais métodos. / This work presents a method for predicting nonlinear economic time series. The method is based on fundamental and technical analysis of script quotation, a multiscale wavelet filtering, pattern selection and artificial neural networks. In the technical model is used the wavelet transform in order to filter the economic time series from random or not economic behaviors. After the data filtering, the successive projections algorithm was used for the training pattern selection to the artificial neural network. In the fundamentalist model is used financial and macroeconomics variables that is correlated with the time serie in order to improve the network forecasting. For the evaluation of the proposed method are used temporal series data related to scrips prices quotation of São Paulo stock market. It presents a comparison of the results between technical model, mathematical model and proposed method. The mathematical model (ARIMA) presented better results in series with few variance, however have low performance when compared with the technical model and with the proposed method. The prediction error evaluation shows that the proposed method has better results than the other methods.
|
494 |
Monitoramento e modelagem da produção de sedimentos em uma bacia hidrográfica no noroeste do Rio Grande do Sul / Monitoring and modelling of sediment yeld in a watershed in the northwest of Rio Grande do SulSari, Vanessa January 2017 (has links)
O entendimento da dinâmica hidrossedimentológica em uma bacia hidrográfica pode ser realizado pelo monitoramento das variáveis hidrossedimentológicas e pela modelagem desses processos. Nesse contexto, essa pesquisa analisou a eficiência do modelo Soil and Water Assessment Tool (SWAT) na previsão dos processos hidrossedimentológicos na bacia do Taboão (Pejuçara, RS), considerando as saídas (vazão e produção de sedimentos) em um passo de tempo mensal e diário. Para tal, foram utilizados dados de chuva horária dos anos 2008 a 2016, monitorada em quatro pluviógrafos instalados na bacia (PVGs 34, 40, 43 e 51), e dados climáticos da estação meteorológica de Cruz Alta. As informações de vazão, para os anos de 2011 a 2016, foram obtidas por meio da conversão dos dados de nível de água monitorados no exutório da bacia, utilizando uma curva-chave cota x vazão. A concentração de sedimentos suspensos (CSS), para os anos de 2013 a 2015, foi estimada por meio de modelos de redes neurais artificias (RNAs), empregando como entrada dados de turbidez e de nível de água, monitorados no exutório da bacia. O preenchimento das falhas dos registros de precipitação horária foi executado por meio de modelos de Combinações de RNAs (CRNAs) associados à média simples (MS) ou à média ponderada pelo inverso da distância (MP), utilizando como entrada dados pluviométricos dos postos vizinhos. As falhas nos dados de nível de água foram preenchidas por modelos de RNAs, que usaram como entrada níveis de água monitorados em sub-bacias embutidas ou adjacente à bacia do Taboão (bacias do Donato, Turcato, Alemão e Andorinhas), e dados de precipitação média dos quatro pluviógrafos utilizados nessa pesquisa Foram determinadas as defasagens temporais entre os níveis de água das diferentes bacias, e testados o uso da precipitação média com aplicação de filtro temporal linear e/ou exponencial. Os registros falhos nos dados de turbidez foram preenchidos por modelos de RNAs, que empregaram como entrada informações de nível de água monitoradas, de 10 em 10 minutos, no exutório da bacia. A calibração do modelo SWAT para a previsão dos processos hidrológicos foi realizada usando dados de vazão, diários e mensais, para os anos de 2013, 2014 e 2016 e; a etapa de verificação foi executada para os anos de 2011 e 2015. Considerou-se o Método de Green & Ampt para determinação da infiltração de água no solo e 2 anos (2008-2009) para período de aquecimento do modelo SWAT. A calibração do modelo para a produção de sedimentos foi realizada para os anos de 2013 e 2015 e o processo de verificação foi efetuado para o ano de 2014. A calibração e a análise de sensibilidade dos parâmetros foram realizadas com auxílio do SWAT-CUP, utilizando o algoritmo SUFI-2. O coeficiente de Nash–Sutcliffe (NS) das RNAs para preenchimento das falhas de precipitação variou entre 0,35, classificado como “Insatisfatório”, e 0,86, avaliado como “Muito Bom”, considerando critérios propostos por Moriasi et al. (2007). Das 13 RNAs desenvolvidas para preenchimento das falhas nos níveis de água, apenas uma delas foi classificada como de desempenho “Satisfatório” durante o treinamento e; as demais enquadraram-se como de desempenho “Muito Bom”. Na etapa de verificação, sete RNAs foram consideradas com desempenho “Muito Bom” e cinco com “Bom” desempenho No preenchimento das falhas de turbidez, das cinco RNAs desenvolvidas, quatro mostraram “Bom” desempenho durante o treinamento, e uma rede teve desempenho “Muito Bom”; enquanto que, no processo de verificação, duas RNAs tiveram desempenho “Muito Bom”, uma delas foi classificada com desempenho “Bom” e; duas RNAs foram consideradas com desempenho “Satisfatório”. As estatísticas de desempenho dos modelos de RNAs desenvolvidos para o preenchimento das falhas de nível de água, de turbidez e de precipitação também demonstraram que tais redes representam uma alternativa interessante para a obtenção de séries contínuas desses dados, possibilitando o uso posterior dos registros para a modelagem hidrossedimentológica. A calibração do modelo SWAT para estimativa da vazão mensal mostrou desempenho “Muito Bom” (NS=0,78), e para a determinação da vazão diária foi considerado “Bom” (NS=0,72). Na etapa de verificação, o modelo manteve o “Bom” desempenho (NS=0,68) para estimativa da vazão diária, decaindo para desempenho “Satisfatório” (NS=0,64) para a simulação em escala mensal. Para a estimativa da produção de sedimentos mensal, o desempenho do modelo foi considerado “Bom” tanto na calibração (NS=0,66) quanto na verificação (NS=0,70). Na escala diária o desempenho foi “Satisfatório” para a calibração (NS=0,64) e “Insatisfatório” para a verificação (NS=0,38) Tais resultados indicam que o modelo SWAT é uma ferramenta promissora para aplicações na previsão hidrossedimentológica na bacia do Taboão, especialmente em termos de simulações dos processos hidrológicos. No entanto, existem limitações para aplicações na estimativa da produção de sedimentos, sobretudo quando considerados os processos em escala diária. Essas limitações são consequência da presença de processos erosivos na bacia (voçorocas), que não são simulados pelas rotinas presentes no modelo SWAT, bem como pelo escoamento dominante ser do tipo subsuperficial, com ocorrência de pipping; indicando-se, portanto, adequações nas rotinas do modelo para melhor representatividade desses processos. / The understanding of hydrosedimentological dynamics in a watershed can be obtained by monitoring the hydrossedimentological variables and by modeling these processes. In this context, this research analyzed the efficiency of the Soil and Water Assessment Tool (SWAT) in predicting the hydrosedimentological processes in the Taboão basin (Pejuçara, RS), considering the outputs (flow and sediment production) in a monthly and daily time step. For that, hourly rainfall data from 2008 to 2016 were monitored at four pluviographs installed in the basin (PVGs 34, 40, 43 and 51), and climate data were obtained from the Cruz Alta meteorological station. The flow information for the years 2011 to 2016 was obtained by converting the monitored water level data into flow by using a rating curve. The suspended sediment concentration (SSC), from 2013 to 2015, was estimated using artificial neural network (ANN) models, using as input turbidity and water level data, monitored in the basin. The filling of the hourly rainfall records was performed by models of Combinations of RNAs (CRNAs) associated with the simple mean (MS) or weighted mean to the inverse distance (MP), using as input rainfall data from the neighboring stations. Failures in the water-level data were filled by RNA models, which used as input water levels monitored in sub-basins adjacent or embedded to the Taboão basin (Donato, Turcato, Alemão and Andorinha basins), and mean precipitation data of the four pluviographs used in this research. The temporal lags between the water levels of the different basins were determined and the use of the average precipitation with linear and exponential temporal filters was tested The turbidity data records were filled by RNA models, using water level information monitored at every 10 minutes. The SWAT model calibration for predicting the hydrological processes was performed using daily and monthly flow data for the years 2013, 2014 and 2016 and the verification step was performed for the years 2011 and 2015; considering Green & Ampt Method for infiltration estimation and 2 years of warm-up period (2008-2009). The calibration of the model for sediment yield was performed for the years 2013 and 2015 and the verification process was carried out for the year 2014. The calibration and sensitivity analysis of the parameters were performed with the assistance of SWAT-CUP, using the SUFI-2 algorithm. The Nash-Sutcliffe Coefficient (NS) of the RNAs used to fill precipitation faults varied between 0.35, classified as "Unsatisfactory", and 0.86, evaluated as "Very Good", considering criteria proposed by Moriasi et al. (2007). Of the 13 RNAs developed to fill water level failures, only one of them was classified as a "Satisfactory" performance during training and; the others have been classified as "Very Good" performance. In the verification step, seven RNAs were considered to have "Very Good" performance and five had "Good” performance. In the fulfillment of the turbidity faults, of the five RNAs developed, four showed "Good" performance during the training, and one network had "Very Good" performance; while in the verification process two ANNs performed "Very Good", one of them was classified as "Good" and; two ANNs were considered to have "Satisfactory" performance The performance statistics of the ANN models developed to fill the water level, turbidity and precipitation failures also demonstrated that such networks represent an interesting alternative to obtain continuous series of these data, allowing the later use of the records for hydrossedimentological modeling. In the verification processes, the model maintained a “Good” performance (NS=0.68) to estimate the daily flow, decreasing to "Satisfactory" performance (NS=0.64) for the monthly scale simulation. For the estimation of sediment yield the model performance was considered "Good" for monthly calibration period (NS=0.66) and also for the verification (NS=0.70). In daily scale the performance was "Satisfactory" for calibration (NS=0.64) and “Unsatisfactory” in the verification (NS=0.38). These results indicate that the SWAT model is a promising tool for applications in the hydrosedimentological forecasting in the Taboão basin, especially in terms of hydrological processes simulations. However, there are limitations to applications in the estimation of sediment production, especially when considering daily scale processes. These limitations are due to the presence of erosive processes in the basin (gully erosion), which are not simulated by the routines present in the SWAT model, as well as by the existence of the lateral flow with occurrence of pipping; indicating, therefore, the need for adjustments in the routines of the model to better represent these processes.
|
495 |
[en] MODELING OF MAGNETIC FOREIGN BODIES AND INVERSE PROBLEM SOLUTION BY NEURAL NETWORKS / [pt] MODELAGEM DE CORPOS ESTRANHOS MAGNÉTICOS E SOLUÇÃO DO PROBLEMA INVERSO POR REDES NEURAISJHERSON PAUL MEDINA HUACASI 12 April 2019 (has links)
[pt] A introdução de um objeto estranho ao corpo humano pode resultar de diferentes processos que abrangem desde eventos iatrogênicos oriundos de procedimentos cirúrgicos, até eventos traumáticos, ocasionados por acidentes ou violência, como disparos de arma de fogo e perfurações com objetos cortantes. A presença desses corpos estranhos dentro do organismo humano pode ocasionar problemas de saúde que vão desde dor e incômodos ao óbito. Para remoção cirúrgica, torna-se essencial a localização desses objetos, com elevada exatidão, para redução do tempo cirúrgico e garantia de sucesso do procedimento. O presente trabalho tem por objetivo ampliar o estudo do problema de localização de corpos estranhos magnéticos (intrinsicamente magnético ou por indução magnética externa) no organismo humano. Foram desenvolvidos algoritmos computacionais capazes de promover simulações dos padrões de densidade de fluxo magnético em um plano decorrentes de uma fonte extensa, representada por parâmetros modificáveis de comprimento, posição espacial e inclinação ao plano de medição. Essas simulações foram utilizadas como entrada para o treinamento de Redes Neurais Artificiais que, após treinamento, foram capazes de resolver o problema inverso, caracterizando, a partir do mapa de campo magnético, a posição espacial, tamanho (comprimento) e inclinação da fonte metálica. Os resultados obtidos indicaram melhor desempenho com o uso de sensores triaxiais, cujo erro quadrático médio, em 3640 testes, mostrou-se inferior a 2 mm na orientação espacial, a 8 mm no comprimento e a 17 graus Celsius para a inclinação da fonte magnética em relação ao plano de medição. / [en] The introduction of a foreign object into the human body may result from different processes ranging from iatrogenic events during surgical procedures to traumatic events caused by accidents or violence such as firing and piercing with sharp objects. The presence of these foreign bodies within the human body can cause health problems ranging from pain and discomfort to death. For surgical removal, it is essential to locate these objects, with high accuracy, to reduce surgical time and guarantee the success of the procedure. The objective of the present work is to contribute to the study of the localization problem of magnetic foreign bodies (intrinsically magnetic or by external magnetic induction) in the human body. The developed computational algorithms are capable of promoting simulations of magnetic flux density patterns in a plane from an extensive source, represented by modifiable parameters of length, spatial position and slope to the measurement plane. These simulations were used as input for the training of Artificial Neural Networks that, after training, were able to solve the inverse problem, characterizing, from the magnetic field map, the spatial position, size (length) and slope of the metallic source. The results indicated a better performance with the use of triaxial sensors, whose mean square error, in 3640 tests, was less than 2 mm in the spatial orientation, 8 mm in length and 17 Celsius degrees for the tilt of the magnetic source in relation to the measurement plane.
|
496 |
Comparação entre métodos de normalização de iluminação utilizados para melhorar a taxa do reconhecimento facial / Comparison between illumination normalization methods used to improve the rate of facial recognitionMendonça, Michelle Magalhães 25 June 2008 (has links)
Condições distintas de iluminação numa imagem podem produzir representações desiguais do mesmo objeto, dificultando o processo de segmentação e reconhecimento de padrões, incluindo o reconhecimento facial. Devido a isso, a distribuição de iluminação numa imagem é considerada de grande importância, e novos algoritmos de normalização utilizando técnicas mais recentes ainda vêm sendo pesquisados. O objetivo dessa pesquisa foi o de avaliar os seguintes algoritmos de normalização da iluminação encontrados na literatura, que obtiveram bons resultado no reconhecimento de faces: LogAbout, variação do filtro homomórfico e método baseado em wavelets. O objetivo foi o de identificar o método de normalização da iluminação que resulta na melhor taxa de reconhecimento facial. Os algoritmos de reconhecimento utilizados foram: auto-faces, PCA (Principal Component Analyses) com rede neural LVQ (Learning Vector Quantization) e wavelets com rede neural MLP (Multilayer Perceptron). Como entrada, foram utilizadas imagens do banco Yale, que foram divididas em três subconjuntos. Os resultados mostraram que o método de normalização da iluminação que utiliza wavelet e LogAbout foram os que apresentaram melhoria significativa no reconhecimento facial. Os resultados também evidenciaram que, de uma maneira geral, com a utilização dos métodos de normalização da iluminação, obtém-se uma melhor taxa do reconhecimento facial, exceto para o método de normalização variação do filtro homomórfico com os algoritmos de reconhecimento facial auto-faces e wavelet com rede neural MLP. / Distinct lighting conditions in an image can produce unequal representations of the same object, compromising segmentation and pattern recognition processes, including facial recognition. Hence, the lighting distribution on an image is considered of great importance, and normalization algorithms using new techniques have still been researched. This research aims to evaluate the following illumination normalization algorithms found in literature: LogAbout, variation of homomorphic filter and wavelet based method. The main interest was to find out the illumination normalization method which improves the facial recognition rate. The algorithms used for face recognition were: eigenfaces, PCA (Principal Component Analysis) with LVQ neural network and wavelets with MLP (Multilayer Perceptron) neural network. Images from Yale Face Database B, divided into three subsets have been used. The results show that the wavelet and LogAbout technique provided the best facial recognition rate. Experiments showed that the illumination normalization methods, in general, improve the facial recognition rate, except for the variation of homomorphic filter technique with the algorithms: eigenfaces and PCA with LVQ.
|
497 |
Sensor virtual inteligente para estimação de composições em colunas de destilação / Intelligent virtual sensor for composition estimation in distillation columnsLucas, Marcelo 30 May 2012 (has links)
Um problema-chave envolvendo processos químicos industriais é controlar, de forma confiável, eficiente e barata, a evolução dinâmica do sistema. Numa coluna de destilação, por exemplo, o objetivo do controle é manter a composição do destilado e do produto de fundo em torno de um valor desejado. As dificuldades operacionais e o alto custo dos analisadores industriais, existentes no mercado, usados na medição da composição têm motivado o projeto de sensores virtuais (soft sensors) para que, a partir de outras medições disponíveis, seja possível inferir de maneira online os valores das variáveis desejadas. Por outro lado, as redes neurais artificiais têm sido utilizadas em diversas aplicações práticas de engenharia, sendo possível usá-las para resolver problemas industriais complexos. Elas possuem diversas características que as fazem particularmente atrativas em aplicações envolvendo sistemas multivariáveis não lineares. Nesse trabalho, um estimador dinâmico virtual baseado em redes neurais é usado para inferir a composição de etanol destilado com base na temperatura e na pressão no interior da coluna, além das vazões de refluxo, do vapor no refervedor e da alimentação. Os resultados desse estudo poderão ser utilizados no desenvolvimento de futuros projetos envolvendo sensores virtuais aplicados ao controle e à otimização de processos industriais. / A key problem involving industrial chemical processes is to control the dynamic evolution of the system in a reliable, efficient and low cost way. In a distillation column, for example, the control objective is to keep the composition of both distillate and bottom product around a desired value. The operational difficulties and high cost of concentration analyzers, used for measuring the composition, have motivated the design of virtual sensors (soft sensors). They are used, in an online way, to infer the values of the desired variables from other available measurements. On the other hand, artificial neural networks have been used for solving many practical engineering applications involving complex industrial problems. They have several features, making them particularly attractive to applications involving nonlinear multivariable systems. In this work, a virtual estimator based on a dynamic neural network is used to infer the composition of distilled ethanol. Temperature and pressure within the column, and the flows of steam and reflux are used as inputs for the neural network. The results of this study can be used to develop future projects involving virtual sensors applied in control and optimization of industrial processes.
|
498 |
Redes neurais auto-organizáveis na caracterização de lesões intersticiais de pulmão em radiografia de tórax / Self-organizing neural networks in the characterization of interstitial lung diseases in chest radiographs.Ambrosio, Paulo Eduardo 01 June 2007 (has links)
O desenvolvimento tecnológico proporciona uma melhoria na qualidade de vida devido à facilidade, rapidez e flexibilidade no acesso à informação. Na área biomédica, a tecnologia é reconhecidamente uma importante aliada, permitindo o rápido desenvolvimento de métodos e técnicas que auxiliam o profissional na atenção à saúde. Recentes avanços na análise computadorizada de imagens médicas contribuem para o diagnóstico precoce de uma série de doenças. Nesse trabalho é apresentada uma metodologia para o desenvolvimento de um sistema computacional para caracterização de padrões em imagens pulmonares, baseado em técnicas de redes neurais artificiais. No estudo, buscou-se verificar a utilização de redes neurais auto-organizáveis como ferramenta de extração de atributos e redução de dimensionalidade de imagens radiográficas de tórax, objetivando a caracterização de lesões intersticiais de pulmão. Para a redução de dimensionalidade e extração de atributos, implementou-se um algoritmo baseado nos mapas auto-organizáveis (SOM), com algumas variações, obtendo-se uma redução dos cerca de 3 milhões de pixels que compõe uma imagem, para 240 elementos. Para a classificação dos padrões, utilizou-se uma rede Perceptron multi-camadas (MLP), validada com a metodologia leave-one-out. Com uma base contendo 79 exemplos de padrão linear, 37 exemplos de padrão nodular, 30 exemplos de padrão misto, e 72 exemplos de padrão normal, o classificador obteve a média de 89,5% de acerto, sendo 100% de classificação correta para o padrão linear, 67,5% para o padrão nodular, 63,3% para o padrão misto, e 100% para o padrão normal. Os resultados obtidos comprovam a validade da metodologia. / The technological development provides an improvement in the quality of life due to easiness, speed and flexibility in the access to the information. In the biomedical area, the technology is admitted as an important allied, allowing the fast development of methods and techniques that assist the professional in the health care. Recent advances in the computerized analysis of medical images contribute for the precocious diagnosis of a series of diseases. In this work a methodology for the development of a computational system for characterization of patterns in pulmonary images, based in techniques of artificial neural networks is presented. In the study, has searched for the verification the use of self-organizing neural networks as a feature extraction and dimensionality reduction tool of chest radiographs, willing to characterize interstitial lung disease. For the dimensionality reduction and feature extraction, an algorithm based on Self-Organizing Maps (SOM) was implemented, with some variations, getting a reduction of about 3 million pixels that it composes an image, for 240 elements. For the pattern classification, a Multilayer Perceptron (MLP) was used, validated with the leave-one-out methodology. With a database containing 79 samples of linear pattern, 37 samples of nodular pattern, 30 samples of mixed pattern, and 72 samples of normal pattern, the classifier provided an average result of 89.5% of right classification, with 100% of right classification for linear pattern, 67.5% for nodular pattern, 63.3% for mixed pattern, and 100% for normal pattern. The results prove the validity of the methodology.
|
499 |
Detecção de ilhamento em sistemas de distribuição com múltiplos geradores distribuídos utilizando redes neurais artificiais / Islanding detection in distribution systems with multiple distributed generators using artificial neural networksLunardi, Thiago Reginato 24 August 2016 (has links)
A inserção de geradores distribuídos nas redes de distribuição de energia elétrica está aumentando consideravelmente devido à possibilidade de maior proximidade destes geradores com os mercados consumidores, fatores ambientais, aprimoramentos das tecnologias atuais de geração de energia elétrica e desenvolvimentos de outras novas, alterações de legislações e incentivos governamentais. Este novo cenário traz também a necessidade de maior atenção devido à possibilidade de ocorrência de ilhamentos não intencionais. Nestas situações, o gerador distribuído deve ser desconectado imediatamente após a detecção do evento. Métodos tradicionais, como relés de tensão e de frequência, mostram bom desempenho quando há um elevado desbalanço entre as potências geradas e as potências das cargas ilhadas. Nos casos de pequenos desbalanços de potência, o ilhamento pode não ser detectado por esses métodos. Neste contexto, este trabalho visa desenvolver um sistema de detecção de ilhamentos em sistemas de distribuição por meio da utilização de uma rede neural artificial do tipo Perceptron multicamadas. Utilizando-se uma rede neural devidamente treinada para o sistema elétrico estudado, obteve-se um bom desempenho na detecção de ilhamento, obtendo-se elevadas taxas de acerto. Além disso, o método proposto foi capaz de diferenciar corretamente situações normais de operação do sistema, tais como chaveamento de blocos de cargas, das situações de ilhamento. Os mesmos cenários foram testados utilizando as proteções convencionais de tensão, frequência e de taxa de variação de frequência, a fim de obter a comparação com o método proposto. Como resultado, o método baseado na rede neural apresentou desempenho superior aos demais sistemas de proteção, detectando o ilhamento dentro da faixa de 2 segundos em todos os casos simulados neste trabalho. / The penetration of distributed generators into the power distribution systems has been increasing significantly due to the possibility of generating power next to the consumers, environmental issues, improvement and development of the generation technologies, regulatory changes and governmental incentives. This new scenario requires special attention to the possibility of unintentional islanding. In this situation, the distributed generator must be disconnected immediately after an islanding occurrence. Traditional anti-islanding protection schemes, such as voltage and frequency-based relays, are effective to detect islanding if there is a big power imbalance between generation and load inside the island. On the other hand, they may fail if the power imbalance is small. In this context, this work presents a new islanding detection method based on a Perceptron Multi-layer neural network. By using a neural network properly trained for the distribution system under study, the method has presented good performance with high islanding detection successful rates. Moreover, the proposed method was capable of distinguish the islanding occurrence from normal transient operating conditions, such as load switching. The same operating scenarios were used to test voltage, frequency and rate of change of frequency protection in order to perform a comparison with the proposed method. As result, the method presented superior performance detecting the islanding faster than 2 seconds in all the cases simulated in this work.
|
500 |
Redes neurais artificiais auto-organizáveis na classificação não-supervisionada de imagens multiespectrais de sensoriamento remoto / Self-organizing artificial neural networks in the unsupervised classification of multispectral remote sensing imageryPádua, Christopher Silva de 14 October 2016 (has links)
O uso de imagens provenientes de sensores remotos, tal como sistemas acoplados em aviões e satélites, é cada vez mais frequente, uma vez que permite o monitoramento continuo e periódico ao longo do tempo por meio de diversas observações de uma mesma região, por vezes ampla ou de difícil acesso. Essa ferramenta tem se mostrado importante e significativa em aplicações como o mapeamento de solo e fronteiras; acompanhamento de áreas de desmatamento, queimadas e de produção agrícola. Para gerar resultados interpretáveis ao usuário final, essas imagens devem ser processadas. Atualmente, o método de classificação por máxima verossimilhança é o mais empregado para classificação de imagens multiespectrais de sensores remotos, entretanto, por se tratar de uma técnica supervisionada, seus resultados dependem extensivamente da qualidade do conjunto de treinamento, utilizado para definir os parâmetros do método. A seleção de um bom conjunto de treinamento é um processo custoso e inviabiliza a automação da classificação para diversas imagens. O método de classificação por máxima verossimilhança é também paramétrico e portanto exitem algumas suposições quanto a distribuição dos dados que devem ser atendidas, caso contrário a aplicação do método pode gerar resultados ruins. Tendo em vista essas desvantagens do método da máxima verossimilhança, este trabalho propõe um novo método para a classificação de imagens multiespectrais provenientes de sensores remotos de forma que o procedimento seja autônomo, veloz e preciso, minimizando dessa forma os possíveis erros humanos inseridos em etapas intermediárias do processo, tal como a definição de conjuntos de treinamento. O método aqui proposto pertence ao conjunto das redes neurais artificiais (RNAs) e é denominado growing neural gas (GNG). Este método baseia-se no aprendizado não supervisionado de padrões \"naturais\" dentro de um conjunto de dados por meio da criação e adaptação de uma rede mínima de neurônios. Os resultados gerados a partir da classificação pela RNA foram comparados com os métodos mais utilizados na literatura atual, sendo eles o método da máxima verossimilhança e o método k-means. A partir da biblioteca espectral ASTER, mantida e criada parcialmente pela NASA, foram realizadas várias repetições do experimento, que consiste em classificar os dados de acordo com as diferentes classes existentes, e para cada uma destas repetições calculou-se uma medida de acurácia, denominada índice kappa, além do tempo de execução de cada método, de forma que suas médias foram comparadas via intervalo de confiança gerados por bootstrap não paramétrico. Também investigou-se como a análise de componentes principais (ACP), técnica utilizada para reduzir a dimensão dos dados e consequentemente o custo computacional, pode influenciar no desempenho dos métodos, tanto em sua qualidade de classificação quanto em relação ao tempo de execução. Os resultados mostram que o método proposto é superior nos dois aspectos estudados, acurácia e tempo de execução, para a maioria dos fatores aplicados. Mostra-se ainda um exemplo de aplicação prática em que uma imagem multiespectral de satélite não satisfaz as pré-suposições estabelecidas para o uso do método da máxima verossimilhança e verifica-se a diferença entre os métodos com relação a qualidade final da imagem classificada. / The use of images from remote sensors, such as coupled systems in airplanes and satellites, are increasingly being used because they allow continuous and periodic surveillance over time through several observations of some particular area, sometimes large or difficult to access. This sort of image has shown an important and meaningful participation in applications such as soil and borders mapping; surveillance of deforestation, forest fires and agricultural production areas. To generate interpretable results to the end user, these images must be processed. Currently, the maximum likelihood classification method is the most used for multispectral image classification of remote sensing, however, because it is a supervised technique, the results depend extensively on the quality of the training set, used to define the parameters of the method. Selecting a good training set is a costly process and prevents the automation of classification for different images. The maximum likelihood classification method is also parametric, and therefore, some assumptions about the distribution of the data must be met, otherwise the application of the method can generate bad results. In view of these disadvantages of the maximum likelihood method, this dissertation proposes a new, autonomous, fast and accurate method for multispectral remote sensing imagery classification thereby minimizing the possible human errors inserted at intermediate stages of the process, such as the definition of training sets. The method proposed here belongs to the set of artificial neural networks (ANN) and is called growing neural gas (GNG). This method is based on unsupervised learning of \"natural\" patterns in a dataset through the creation and adaptation of a minimum network of neurons. The results generated from the classification by ANN were compared with the most commonly used methods in the literature: the maximum likelihood method and the k-means method. From the spectral library Aster, maintained and made in part by NASA, several replications of the experiment were made, which is to classify the data according to different preestablished classes, and a measure of accuracy called kappa index was calculated for each of the replicates, in addition to the execution time of each method, so that their means were compared via confidence interval generated by nonparametric bootstrap. It was additionally investigated how principal component analysis (PCA), technique which reduces dimension of data and consequently the computational cost, can influence the performance of methods, both in its quality rating and runtime. The results show that the proposed method is superior in both aspects studied, accuracy and runtime, for the majority of applied factors. Furthermore, it is shown an example of a practical application in which a multispectral satellite image does not necessarily meet the established assumptions for using the maximum likelihood method, and there is a difference between the methods, regarding to its final classified image quality.
|
Page generated in 0.1105 seconds