181 |
Modelo neuro-evolutivo de coordenação adaptativa em ambientes dinâmicosCôrtes, Deise da Silva January 2005 (has links)
Em ambientes dinâmicos e complexos, a política ótima de coordenação não pode ser derivada analiticamente, mas, deve ser aprendida através da interação direta com o ambiente. Geralmente, utiliza-se aprendizado por reforço para prover coordenação em tais ambientes. Atualmente, neuro-evolução é um dos métodos de aprendizado por reforço mais proeminentes. Em vista disto, neste trabalho, é proposto um modelo de coordenação baseado em neuro-evolução. Mais detalhadamente, desenvolveu-se uma extensão do método neuro-evolutivo conhecido como Enforced Subpopulations (ESP). Na extensão desenvolvida, a rede neural que define o comportamento de cada agente é totalmente conectada. Adicionalmente, é permitido que o algoritmo encontre, em tempo de treinamento, a quantidade de neurônios que deve estar presente na camada oculta da rede neural de cada agente. Esta alteração, além de oferecer flexibilidade na definição da topologia da rede de cada agente e diminuir o tempo necessário para treinamento, permite também a constituição de grupos de agentes heterogêneos. Um ambiente de simulação foi desenvolvido e uma série de experimentos realizados com o objetivo de avaliar o modelo proposto e identificar quais os melhores valores para os diversos parâmetros do modelo. O modelo proposto foi aplicado no domínio das tarefas de perseguição-evasão.
|
182 |
Fatores intervenientes na capacidade de atendimento de praças de pedágioOliveira, Marcelo Leismann de January 2004 (has links)
Este trabalho tem como objetivo o levantamento e análise de fatores intervenientes na capacidade de processamento de veículos em cabines de praças de pedágio com o recolhimento manual de tarifas. Buscando o entendimento de como estes fatores interferem nos tempos de atendimento nas cabines foi realizada uma análise estatística e posterior modelagem, que utilizou redes neurais artificiais. Redes neurais artificiais são úteis no entendimento de problemas com alto grau de complexidade, que agregam diversas variáveis de entrada com relações não-lineares entre si. As variáveis de entrada escolhidas para a modelagem foram forma de pagamento, intensidade de fluxo, valor das tarifas e classes de veículos. A variável de saída foi o tempo de atendimento nas cabines de cobrança de pedágios. Foram obtidos três modelos que buscaram refletir a variação dos tempos de atendimento para um mesmo conjunto de dados de entrada: Modelo de Tempos Mínimos de Atendimento; Modelo de 85° Percentil de Tempos de Atendimento, e; Modelo de Tempos Máximos de Atendimento. As análises de sensibilidade dos modelos indicaram que tempos de atendimento são fortemente influenciados pelo fluxo de veículos nas praças. Quanto mais intenso o fluxo de veículos, tempos mínimos de atendimento tendem a sofrer leve aumento, indicando pequena perda de rendimento do processo. Perda de rendimento pode ser resultado de (i) necessidade de digitação das placas de licença dos veículos no sistema operacional das praças-dificuldade de visualização das mesmas em situação de filas, e (ii) desgaste físico dos arrecadadores. O desgaste físico dos arrecadadores também se apresenta como provável causa para o aumento de tempos mínimos de atendimento para fluxos altos. Quanto mais intenso o fluxo de veículos, menores são os tempos máximos de atendimento. Quanto maior o fluxo de veículos nas praças, as modelagens indicam uma maior estabilidade do sistema com relação ao processamento de veículos.
|
183 |
Análise do padrão de comportamento de pedestres em travessias semaforizadasAriotti, Paula January 2006 (has links)
Esta dissertação apresenta um modelo conceitual do padrão de comportamento de pedestres em travessias semaforizadas. O modelo propõe uma estrutura de classificação dos pedestres de acordo com suas atitudes ao atravessar uma via. A análise envolve a consideração de fatores que podem influenciar as decisões dos pedestres sobre onde e quando iniciar a trajetória de travessia. O uso adequado das travessias semaforizadas é definido como conformidade de travessia. A conformidade de travessia pode ser de dois tipos: espacial, relacionada à localização em que o pedestre atravessa a via e, temporal, relacionada ao momento em que o pedestre decide iniciar a travessia. O modelo conceitual foi aplicado na área central da cidade de Porto Alegre. Com o objetivo de estimar as conformidades de travessia foram realizadas modelagens com redes neurais artificiais. Esta ferramenta proporciona o entendimento de problemas com alto grau de complexidade, que agregam variáveis com relações não-lineares entre si. As variáveis utilizadas na modelagem foram (i) gap máximo, (ii) gap crítico, (iii) 85° percentil de gaps, (iv) volume de pedestres, (v) volume de veículos, (vi) velocidade de veículos, (vii) largura da via, (viii) largura da travessia e, (ix) tempo de espera pelo verde no semáforo. Os resultados demonstraram que as características particulares de cada local têm influência nas conformidades de travessia. As análises de sensibilidade dos modelos indicaram que as variáveis relacionadas às características locais de geometria e condições de entorno das travessias exercem maior influência sobre a conformidade de travessia espacial. Por outro lado, a modelagem indicou que as características do regime do tráfego são os aspectos mais importantes na determinação da conformidade de travessia temporal.
|
184 |
Inteligência artificial popperianaSchuler, Joao Paulo Schwarz January 2002 (has links)
A inteligência tem sido estudada como fruto de evolução biológica. Nas últimas centenas de milhões de anos, a inteligência tem evoluído juntamente com a biologia. Essa conclusão pode ser obtida ao analisar o comportamento das criaturas que emergiram assim como a sua capacidade de armazenar e processar informação. A evolução gerou criaturas possuidoras de cérebros com grande poder de adaptação. Partindo-se do pressuposto que a inteligência humana é resultado de um processo evolutivo paulatino que ocorreu ao longo de milhões de anos, faz sentido tentar repetir os mesmos passos dados ao longo da evolução da inteligência artificialmente. A evolução oferece uma rota que vai desde tipos de mentes simples até tipos de mentes mais complexas apresentando um caminho de características e capacidades que evoluíram ao longo do tempo. No presente trabalho, acredita-se que esse caminho seguido pela evolução é uma boa fonte de inspiração para a geração de inteligência artificial. De acordo com Dennett, um tipo de mente que apareceu ao longo da evolução é a mente popperiana que aprende as regras do ambiente e tem a capacidade de imaginar ou planejar estados futuros permitindo que ela se adapte com facilidade a novas e inesperadas situações. Sendo assim, modela-se e implementa-se um agente popperiano capaz de aprender as regras do seu ambiente e planejar ações futuras baseando-se no seu aprendizado. Por fim, são implementados dois protótipos de agentes popperianos para resolver problemas distintos e observa-se a capacidade dos agentes popperianos em se adaptar às condições do seu meio para alcançar seus objetivos.
|
185 |
Utilização de inteligência artitificail (redes neurais artificiais) no gerenciamento do incubatório de uma empresa avícola do sul do Brasil.Salle, Felipe de Oliveira January 2005 (has links)
O estudo foi feito através de séries históricas de dados de um incubatório pertencente a uma integração avícola do Rio Grande do Sul, durante os anos de 1999 a 2003, com os quais foram feitas análises do tipo observacional analítico e transversal. Primeiramente usou-se os registros de 5 linhagens de frangos utilizadas pela empresa no transcorrer do período de 23 de fevereiro de 1995 a 25 de janeiro de 2002. As linhagens foram identificadas da seguinte forma: COBB, HIGH YIELD, MPK, ROSS308, e X. Esses 81 lotes analisados foram estudados através dos seus respectivos registros que continham: o número inicial de fêmeas, número inicial de machos, ração total/cabeça, ração/cabeça/inicial/recria, ração/cabeça/inicial/postura, ovos postos, ração p/ovo posto, pintos nascidos, percentagem viabilidade postura fêmea, percentagem viabilidade postura machos. O método aqui proposto provou ser capaz de classificar as linhagens a partir das entradas escolhidas. Na linhagem que apresentava uma grande quantidade de amostras a classificação foi muito precisa. Nas demais, com menor número de dados, a classificação foi efetuada, e, como era de se esperar, os resultados foram menos consistentes. Com o mesmo banco de dados dos lotes fechados, realizou-se a segunda etapa da dissertação. Nela, procedeu-se o treinamento das redes neurais artificiais onde foram utilizadas as seguintes variáveis de saída: ovos incubáveis, percentagem de ovos incubáveis, ovos incubados, percentagem de ovos incubados, pintos nascidos e pintos aproveitáveis. Os resultados apresentaram R2 oscilando entre 0,93 e 0,99 e o erro médio e o quadrado médio do erro ajustados, demonstrando a utilidade das redes para explicar as variáveis de saída. Na terceira e última etapa da dissertação, destinada à validação dos modelos, foram usados quatro arquivos distintos denominados da seguinte forma: INPESO (3.110 linhas de registros de pesos dos reprodutores), ININFO (56.018 linhas de registros com as informações diárias do ocorrido nas granjas de reprodução até o incubatório), INOVOS (35.000 linhas de registros com informações sobre os ovos processados), INNASC: 43.828 linhas de registros com informações sobre os nascimentos. O modelo gerado para o ano de 1999 foi capaz de predizer corretamente os resultados deste mesmo ano e dos anos de 2000, 2001, 2002 e 2003. O mesmo procedimento foi repetido criando modelo com os registros do ano em questão e validando-o com os registros dos anos subseqüentes. Em todas as ocasiões foram obtidos bons resultados traduzidos por um alto valor no R2. Concluindo, os fenômenos próprios do incubatório puderam ser explicados através das redes neurais artificiais. A técnica, seguindo a mesma tendência das dissertações que anteriormente já haviam demonstrado que esta metodologia pode ser utilizada para o gerenciamento de reprodutoras pesadas e de frangos de corte, pode realizar simulações, predições e medir a contribuição de cada variável no fenômeno observado, tornando-se uma poderosa ferramenta para o gerenciamento do incubatório e num suporte cientificamente alicerçado para a tomada de decisão.
|
186 |
Utilização de inteligência artificial - (Redes neurais artificiais) no gerenciamento da produção de frangos de corteReali, Egidio Henrique January 2004 (has links)
Este estudo objetivou demonstrar que é possível explicar os fenômenos que ocorrem na criação de frangos de corte através de redes neurais artificiais. A estatística descritiva e a diferença entre as médias das variáveis dos dados iniciais foram calculadas com o programa computacional SigmaStat® Statistical Software para Windows 2.03. Foi utilizada uma série histórica de dados de produção de frangos de corte, obtidos nos anos de 2001 e 2002, fornecidos por uma Integração Avícola do Rio Grande do Sul, contendo informações de 1.516 criadores com lotes alojados em 2001 e 889 criadores com lotes alojados em 2002. Nos arquivos estavam registrados, para cada lote, suas variáveis de produção, tais como número do lote, data do alojamento, data do abate, idade ao abate, número de pintos alojados, quilogramas de ração consumidos, quilogramas de frangos produzidos, número de aves abatidas, custo do frango produzido, mortalidade, peso médio, ganho de peso diário, índice de conversão alimentar, índice de eficiência, quilogramas líquido de frangos, quilogramas de ração inicial, quilogramas de ração crescimento, quilogramas de ração abate, além de outros. Para a construção das redes neurais artificiais foi utilizado o programa computacional NeuroShell®Predictor, desenvolvido pela Ward Systems Group. Ao programa foi identificado as variáveis escolhidas como “entradas” para o cálculo do modelo preditivo e a variável de “saída” aquela a ser predita. Para o treinamento das redes foram usados 1.000 criadores do banco de dados do alojamento de frangos de corte de 2001. Os restantes 516 criadores de 2001 e todos os 889 criadores de 2002 serviram para a validação das predições, os quais não participaram da etapa de aprendizagem, sendo totalmente desconhecidos pelo programa. Foram gerados 20 modelos na fase de treinamento das redes neurais artificiais, com distintos parâmetros de produção ou variáveis (saídas). Em todos estes modelos, as redes neurais artificiais geradas foram bem ajustadas apresentando sempre, um Coeficiente de Determinação Múltipla (R²) elevado e o menor Quadrado Médio do Erro (QME). Ressalta-se que o R² perfeito é 1 e um coeficiente muito bom deve estar próximo de 1. Todos os 20 modelos, quando validados com os 516 lotes de 2001 e com 889 de 2002, apresentaram também Coeficientes de Determinação Múltipla (R²) elevados e muito próximos de 1, além de apresentarem o Quadrado Médio do Erro (QME) e Erro Médio reduzidos. Foi comprovado não haver diferenças significativas entre as médias dos valores preditos e as médias dos valores reais, em todas as validações efetuadas nos lotes abatidos em 2001 e em 2002, quando aplicados os 20 modelos de redes neurais gerados. Como conclusão, as redes neurais artificiais foram capazes de explicar os fenômenos envolvidos com a produção industrial de frangos de corte. A técnica oferece critérios objetivos, gerados cientificamente, que embasarão as decisões dos responsáveis pela produção industrial de frangos de corte.Também permite realizar simulações e medir a contribuição de cada variável no fenômeno em estudo.
|
187 |
Redes de neurônios não-monótonos em camadasNeves, Fábio Schittler January 2006 (has links)
Neste trabalho, derivamos equações de recorrência que descrevem a dinâmica exata de uma rede neural não-monótona, em camadas, através de uma análise sinal ruído. Para poder avaliar o seu estado dinâmico, definimos a semelhança do estado da rede com alguma configuração específica desta como medida de interesse. Vamos nos referir a estas configurações por "padrões" e a esta medida de interesse por "overlap". Obtivemos as equações dinâmicas na recuperação de um padrão e na recuperação simultânea de dois padrões. Esta arquitetura apresenta conexões apenas entre camadas adjacentes no sentido entrada-saída e padrões descorrelacionados entre as camadas. Assim, a propagação de um sinal nesta rede se dá ao passar por uma seqüência de padrões pré-definidos, de camada para camada. Nesta dinâmica, os pontos fixos correspondem a um valor estacionário do overlap desta seqüência de padrões e não do overlap estacionário de um padrão específico. Nós constatamos, na recuperação de um padrão à temperatura zero, que o modelo não-monótono é capaz de armazenar um conjunto maior de informação que o modelo monótono. Encontramos, além da presença das soluções de ponto fixo, a de atratores cíclicos e caóticos, que foram identificados e expostos graficamente.
|
188 |
Implementação de um classificador de imagens baseado em redes neurais em sistemas embarcadosSiqueira, Thiago Marques 15 July 2016 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Mecânica, 2016. / Submitted by Fernanda Percia França (fernandafranca@bce.unb.br) on 2016-12-14T16:07:22Z
No. of bitstreams: 1
2016_ThiagoMarquesSiqueira.pdf: 2402062 bytes, checksum: b8c2b9d950b6e29fda7a40d8e0704173 (MD5) / Approved for entry into archive by Raquel Viana(raquelviana@bce.unb.br) on 2017-01-11T18:06:23Z (GMT) No. of bitstreams: 1
2016_ThiagoMarquesSiqueira.pdf: 2402062 bytes, checksum: b8c2b9d950b6e29fda7a40d8e0704173 (MD5) / Made available in DSpace on 2017-01-11T18:06:23Z (GMT). No. of bitstreams: 1
2016_ThiagoMarquesSiqueira.pdf: 2402062 bytes, checksum: b8c2b9d950b6e29fda7a40d8e0704173 (MD5) / Durante décadas, classificadores baseados em rede neural feedforward (FNN, do inglês, feedforward neural network) têm sido amplamente utilizados em muitos problemas de classificação, como imagem [1] e reconhecimento de fala [2]. Porém essa descoberta veio com algumas desvantagens, o grande número de multiplicações em ponto flutuante necessário em tempo de teste e a quantidade de memória necessária para armazenar os parâmetros treinados. Isso ocorre porque a maioria dos seus cálculos são produto de matrizes por vetores, onde as imagens de entrada dispostas como vetores são multiplicados por uma matriz de parâmetros aprendida para um conjunto específico de imagens. Quando implementados em hardware dedicado, a principal vantagem de um classificador FNN sobre os outros classificadores é a sua natureza inerente de paralelizar as operações de multiplicação. No entanto, quando o número de parâmetros de um classificador FNN é grande, surge o desafio na alta quantidade de recursos necessários para implementar operações de multiplicação seguida de acumulação (MAC, do inglês multiply-accumulate operations) e a dificuldade de transferir os dados da memória para a unidade de processamento com uma baixa latência. Houve uma extensa pesquisa na literatura sobre estratégias de quantização para resolver esses problemas. Entre essas estratégias de quantização, o xQuant [3] quantiza os parâmetros do classificador FNN primeiramente reescalonando para valores inteiros e, em seguida, aproximando-os a potência de 2 mais próximo. Quando um classificador quantizado com xQuant é utilizado para classificar imagens, cada multiplicação de ponto flutuante é substituída por uma única operação de deslocamento de bits. No entanto, xQuant ainda não foi implementado em um hardware dedicado. Portanto, nessa dissertação de mestrado é apresentado uma análise da implementação do xQuant em FPGA. Usando o algoritmo de aprendizagem classificador FNN LAST (Learning Algorithm for Soft-Thresholding), o classificador foi treinado para um problema de classificação de textura e utilizado este classificador como estudo de caso. Esse foi implementado como um co-processador (Hardware / Software), uma arquitetura usando o ponto flutuante de precisão simples (Fp) e uma versão quantizada do classificador usando xQuant (xQ). Ambos os projetos foram implementados em um Xilinx Zynq-7020 SoC, utilizando a ferramenta Xilinx Vivado HLS. Os resultados mostram que xQ executa 3 vezes mais rápida do que Fp e o uso de recursos da FPGA como se segue: FF de 52% para 7%; LUTs de 63% para 15%; LUTRAMs de 10% para 1%; dispositivo de DSP de 29% para 0. Com essa redução de recursos é uma alternativa bem vista, para sistemas embarcados críticos, onde a quantidade de recursos e de energia disponíveis são limitados. _________________________________________________________________________________________________ ABSTRACT / For decades, classifiers based on Feedforward Neural Network - FNN have been widely used in many classification problems, such as image [1] and recognition voice [2]. However this discovery came with some drawbacks, the number of multiplications necessary in floating point in test time and the amount of memory required to store the trained parameters. This it happens because the most of calculations are multiplications between matrices and vectors, where the input images arranged as vectors are multiplied by a parameter array learned for a specific set of images. When implemented in dedicated hardware, the main advantage of a FNN classifier on the other classifiers is their inherent nature to parallelize the multiplication operations. However, when the number of parameters of a FNN classifier is large, the challenge in high amount of resources needed to implement Multiply- Accumulate Operations - MAC and the difficulty of transferring data from memory to the processing unit with a low latency. There was an extensive literature search on quantization strategies to solve these problems. Among these quantization strategies, xQuant [3] first rescales them to integer values and then quantizes them by approaching each weight to its nearest power of two. When a quantized classifier xQuant is used to classify images, each floating- point multiplication is replaced by a single bit shift operation. However, xQuant has not yet been implemented in a dedicated hardware. Therefore, in this master thesis is presented an analysis of the implementation of xQuant on FPGA. Using the classifier Learning Algorithm for Soft-Thresholding - FNN LAST, the classifier was trained to a texture classification problem and used this classifier as a case study. This was implemented as a coprocessor (Hardware / Software), an architecture using the floating-point single precision (Fp) and a quantized version of the classifier using xQuant (xQ). Both projects were implemented on Xilinx Zynq- 7020 SoC, using the Xilinx Vivado HLS tool. The results show that performs xQ 3 times faster than Fp and use of FPGA resources as follows: FFs from 52% to 7%; LUTs from 63% to 15%; LUTRAMs from 10% to 1%; DSP slices from 29% to 0. With this reduction in resources is an alternative view and, for critical embedded systems where the amount of resources and energy are limited.
|
189 |
Metodologia baseada em redes neurais artificiais para a detecção de danos estruturais / Development of a methodology based on artificial neural networks for structural damages detectionAraújo, Marília Marcy Cabral de 17 November 2017 (has links)
Tese (doutorado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Civil e Ambiental, 2017. / Submitted by Raquel Viana (raquelviana@bce.unb.br) on 2018-06-25T21:44:05Z
No. of bitstreams: 1
2017_MaríliaMarcyCabraldeAraújo.pdf: 8292780 bytes, checksum: 8f44a2ea023640998a0589105a568f8b (MD5) / Approved for entry into archive by Raquel Viana (raquelviana@bce.unb.br) on 2018-06-29T16:40:17Z (GMT) No. of bitstreams: 1
2017_MaríliaMarcyCabraldeAraújo.pdf: 8292780 bytes, checksum: 8f44a2ea023640998a0589105a568f8b (MD5) / Made available in DSpace on 2018-06-29T16:40:17Z (GMT). No. of bitstreams: 1
2017_MaríliaMarcyCabraldeAraújo.pdf: 8292780 bytes, checksum: 8f44a2ea023640998a0589105a568f8b (MD5)
Previous issue date: 2018-06-25 / Durante a vida útil as estruturas sofrem solicitações, desgastes, deteriorações e outros processos que podem causar fissuração, de forma a comprometer seu funcionamento, ou, até mesmo, ser a causa de seu colapso estrutural. Somado a esses fatores, o crescente número de estruturas muito esbeltas, consequentemente mais susceptíveis a vibrações excessivas, bem como a preocupação com o desempenho e a degradação de estruturas antigas, têm impulsionado o estudo e o desenvolvimento de novas técnicas capazes de realizar um acompanhamento contínuo da saúde da estrutura. Neste sentido, ferramentas com a capacidade de captar e interpretar confiável e rapidamente as respostas de estruturas de médio e grande porte, sobretudo aquelas baseadas nas propriedades dinâmicas, tornam-se essenciais para complementar um sistema de monitoramento da saúde estrutural. Nos últimos anos, parte da comunidade científica vem adotando a detecção de danos como um problema de reconhecimento de padrões, no qual uma classificação é realizada em função de parâmetros afetados por uma mudança nas propriedades físicas de um sistema. Nesta perspectiva, pode-se citar a existência de ferramentas que, ao serem trabalhadas em conjunto com as propriedades dinâmicas, tornam-se métodos eficientes na detecção de danos, como é o caso das Redes Neurais Artificiais (RNAs) e foco deste trabalho. Foram estudados três tipos de rede (Backpropagation, a Learning Vector Quantization (LVQ) e a Self Organizing Maps (SOM)), aplicadas aos casos de dois tipos de estruturas. A primeira, mais simples e em menor escala foi uma viga produzida em laboratório. Já o segundo caso estudado foi o da Ponte do Infante Dom Henrique, em Portugal. Em ambas as aplicações foram variados alguns parâmetros dos algoritmos para verificar a robustez da ferramenta e os resultados foram bastante animadores, resultando em forte tendência de integrar as RNAs a sistemas de monitoramento de estruturas, inclusive de grande porte. / During useful life, structures suffer from stress, wear, deterioration and other processes that can cause cracking, so as to compromise their functioning or even cause structural collapse. Added to these factors, the growing number of very slender structures, consequently more susceptible to excessive vibrations, as well as the concern with the performance and the degradation of old structures, have driven the study and the development of new techniques capable of continuous structure health monitoring. In this sense, tools with the ability to capture and interpret reliably and quickly the responses of medium and large structures, especially those based on dynamic properties, are essential to complement a structural health monitoring system. In recent years, part of the scientific community has been adopting damage detection as a pattern recognition problem in which a classification is performed according to parameters affected by a change in the physical properties of a system. In this perspective, it can be mentioned the existence of tools that when worked in conjunction with the dynamic properties become efficient methods in the detection of damages, as is the case of Artificial Neural Networks (ANNs) and focus of this work. Three types of network (Backpropagation, Learning Vector Quantization (LVQ) and Self Organizing Maps (SOM) were studied, applied to cases of two types of structures. The first, simpler and in smaller scale was a beam produced in the laboratory. The second case studied was the Bridge of the Infante Dom Henrique in Portugal. In both applications, some parameters of the algorithms were varied to verify the robustness of the tool and the results were quite encouraging, resulting in a strong tendency to integrate ANNs to structures monitoring systems, even large ones.
|
190 |
Regressão logística e redes neurais aplicadas à previsão probabilística de alagamentos no Município de Curitiba, PrLohmann, Marciel 19 June 2013 (has links)
Resumo: A presente pesquisa se propõe a estudar por meio do uso de regressão logística e redes neurais as características relacionadas aos padrões de chuva em Curitiba, procurando estabelecer a relação entre chuva e alagamentos para o município, utilizando como base a integração de informações hidrometeorológicas. Para alcançar os objetivos propostos, foram construídos modelos baseados em regressão do tipo logística e redes de Kohonen (Self Organizing Map (SOM)) para previsão probabilística de alagamentos, sendo os dois métodos comparados e avaliados em relação ao seu desempenho por meio da Curva de Características Operacionais (ROC), bem como a partir dos diagramas de confiabilidade, discriminação e refinamento. Para a construção dos modelos foram utilizados os dados de precipitação estimada a partir da integração das informações provenientes de radar meteorológico, satélite e pluviômetros, utilizando o método de Análise Objetiva Estatística (ANOBES). Os dados dos registros pontuais de alagamentos fornecidos pela Defesa Civil Municipal foram compilados pelo IPPUC (Instituto de Pesquisa e Planejamento Urbano de Curitiba). A partir dos dados de estimativas de precipitação foi calculada a chuva média acumulada de 6 em 6 horas por bacia hidrográfica, utilizando-se do método de Thiessen e do Inverso da Distância ao Quadrado, sendo os dois métodos comparados para verificar qual possui o melhor resultado para a geração dos dados de entrada dos modelos. Em relação ao desempenho dos dois métodos utilizados na construção dos modelos, verificouse no caso estudado que o SOM (Self Organizing Map) apresentou desempenho superior quando comparado com a regressão logística tanto no período de calibração quanto de verificação. A partir dos resultados gerados por meio da rede SOM, pode-se definir quais os principais padrões de chuva responsáveis por deflagrar os alagamentos em Curitiba e ainda estimar o número esperado de alagamentos (NEA) por bacia hidrográfica. Sob esta perspectiva, este trabalho possui como uma primeira inovação a utilização de ferramentas especializadas de inteligência artificial (IA) para o reconhecimento de padrões de chuva causadores de alagamento. Em relação ao número esperado de alagamentos, a inovação se refere a espacialização dos mesmos baseado no histórico de ocorrências. Como proposta, sugere-se que os resultados gerados neste trabalho integrem um Sistema de Alertas de Alagamentos em Curitiba, e que as informações e dados gerados possam ser utilizados pela Defesa Civil no sentido de aumentar a resiliência da população e mitigar possíveis impactos decorrentes dos alagamentos.
|
Page generated in 0.0988 seconds