• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1288
  • 349
  • 214
  • 91
  • 65
  • 53
  • 40
  • 36
  • 27
  • 17
  • 14
  • 13
  • 13
  • 13
  • 7
  • Tagged with
  • 2666
  • 2666
  • 836
  • 820
  • 592
  • 571
  • 449
  • 410
  • 405
  • 333
  • 310
  • 284
  • 259
  • 248
  • 243
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
531

Real-time localization of balls and hands in videos of juggling using a convolutional neural network

Åkerlund, Rasmus January 2019 (has links)
Juggling can be both a recreational activity that provides a wide variety of challenges to participants and an art form that can be performed on stage. Non-learning-based computer vision techniques, depth sensors, and accelerometers have been used in the past to augment these activities. These solutions either require specialized hardware or only work in a very limited set of environments. In this project, a 54 000 frame large video dataset of annotated juggling was created and a convolutional neural network was successfully trained that could locate the balls and hands with high accuracy in a variety of environments. The network was sufficiently light-weight to provide real-time inference on CPUs. In addition, the locations of the balls and hands were recorded for thirty-six common juggling pattern, and small neural networks were trained that could categorize them almost perfectly. By building on the publicly available code, models and datasets that this project has produced jugglers will be able to create interactive juggling games for beginners and novel audio-visual enhancements for live performances.
532

Análise de imagens no desenvolvimento e status de fósforo do minitomateiro grape cultivado em sistema semi-hidropônico / Image analysis of the development and phosphorus status of the mini tomato grown in a semi-hydroponic system

Leonardo Pinto de Magalhães 29 October 2018 (has links)
A análise de imagens é uma das formas de avaliar o desenvolvimento das plantas, tanto para correlacionar aspectos biofísicos dos mesmos, como para a detecção de doenças. Através das imagens podem ser calculados índices vegetativos que se correlacionem com os teores de nutrientes nas folhas. Com essa perspectiva, o presente trabalho objetivou avaliar quais indices vegetativos melhor se correlacionariam com a taxa de fósforo nas folhas de tomateiros. Foi realizado o cultivo de uma cultivar de minitomate, com cinco doses de fósforo (0, 25, 50, 75 e 100%) do P recomendado (na formulação da solução nutritiva). Em diferentes etapas do desenvolvimento da planta foram coletadas amostras das folhas para obtenção das imagens, através de escâner e máquina fotográfica, e diagnose foliar. Foram determinadas as biorrespostas das plantas ao longo do tempo. Uma rede neural artificial foi desenvolvida para estimar os teores de fósforo foliares no minitomate grape. A análise do desenvolvimento da planta permitiu concluir que a dose 100% de P2O5 utilizada no experimento foi suficiente para suprir a demanda nutricional do minitomateiro. Aos 64 dias após o transplantio (DAT) foi observada a maior queda nos teores de fósforo nas folhas, coincidindo com o amadurecimento dos frutos. Propõe-se, para a cultivar estudada, que a dignose foliar seja feita aos 50 DAT. Os índices vegetativos obtidos pela análise de imagem e selecionados pela análise de componentes principais (ICVE e Bn, tanto da parte abaxial quanto adaxial) podem ser utilizados para estimar a diagnose foliar de P na cultivar de minitomate grape. A avaliação dos índices vegetativos indicou que a obtenção de imagens com o escâner é mais adequado do que com a câmera fotográfica. Para a cultivar estudada, verificou-se que na dosagem de 100% de P2O5 teor de P nas folhas fica abaixo de 4,0 g kg-1. Em relação à rede neural desenvolvida, ao categorizar os valores de P de acordo com a literatura, a mesma obteve uma taxa de acerto de 90%. / The analysis of images is one of the ways to evaluate the development of plants, both to correlate biophysical aspects of the same, as for the detection of diseases. Through the images can be calculated vegetative indexes that correlate with the contents of nutrients in the leaves. With this perspective, the present studied aimed to evaluate which vegetative indexes would best correlate with the phosphorus rate in tomato leaves. A minitomato grape cultivar with five phosphorus doses (0, 25, 50, 75 and 100%) of the recommended P (in the formulation of the nutrient solution) was carried out. At different stages of plant development, leaf samples were collected to obtain the images, with scanner and camera, and foliar diagnosis. The bio-responses of plants were determined over time. An artificial neural network was developed to estimate leaf phosphorus levels in the grape minitomate. The analysis of the development of the plant allowed to conclude that the dose 100% of P2O5 used in the experiment was enough to supply the nutritional demand of the minitomateiro. At 64 days after transplanting (DAT), the highest drop in phosphorus content in the leaves was observed, coinciding with the ripening of the fruits. It is proposed, for the studied cultivar, that the leaf dignity should be made at 50 DAT. The vegetative indexes obtained by the image analysis and selected by the principal components analysis (ICVE and Bn, both abaxial and adaxial) can be used to estimate the leaf diagnosis of P in the minitomate grape cultivar. The evaluation of vegetative indexes indicated that obtaining images with the scanner is more appropriate than with the photographic camera. For the cultivar studied, it was verified that in the dosage of 100% of P2O5 content of P in the leaves is below 4.0 g kg-1. In relation to the developed neural network, when categorizing the P values according to the literature, it obtained a 90% correctness rate.
533

Segmentação e classificação de imagens digitais de úlceras cutâneas através de redes neurais artificiais / Segmentation and classification of digital images of cutaneous ulcers through artificial neural networks

André de Souza Tarallo 17 December 2007 (has links)
Úlceras cutâneas constituem um problema de saúde pública no mundo atual. A eficiência do seu tratamento é observada pela redução das áreas total, de fibrina (amarelo) e de granulação (vermelho) da úlcera, calculados manualmente e/ou por imagens, processos demorados e posteriores à consulta médica. O trabalho propõe uma nova técnica não-invasiva e automatizada de acompanhamento das úlceras por redes neurais artificiais (RNAs). Foram utilizadas imagens digitais do banco de imagens do ADUN (Ambulatório da Dermatologia de Úlceras Neurovasculares) do Hospital das Clínicas da FMRP-USP (Faculdade de Medicina de Ribeirão Preto da Universidade de São Paulo), escolhidas aleatoriamente, sendo 50 imagens para treinamento da RNA e 250 para o teste da RNA. Para validação da RNA foram criados os grupos: 1 (n=15 imagens poligonais com áreas e cores definidas previamente); 2 (n=15 imagens poligonais com áreas e cores definidas previamente, submetidas a variações de iluminação, brilho, contraste, saturação); 3 (n=15 imagens poligonais constituídas de texturas de fibrina e de granulação); 4 (n=15 imagens de úlceras cutâneas reais preenchidas totalmente em cor preta sua superfície). Para avaliar a sua aplicação clínica foram utilizadas 50 imagens padronizadas submetidas aos cálculos das áreas pela RNA. Os resultados da RNA foram comparados aos do programa Image J (segmentação manual) e/ou às medidas-padrão. Estatisticamente os programas foram considerados similares quando p > 0,05 pelo Teste t Student. Quando p < 0,05 e r positivo, considerou-se o coeficiente de correlação de Pearson. A base de imagens de úlceras cutâneas foi eficiente para a aquisição das imagens, para a criação e execução dos algoritmos de extração de cores, de treinamento e de teste da RNA. A rede neural artificial desenvolvida apresentou desempenho similar ao Image J e às medidas-padrão adotadas para a segmentação das figuras do grupo 1, sendo p > 0,05 para as áreas total, de fibrina e de granulação. Na avaliação de interferência de ruídos (grupo 2), foi verificado que tais fatores não interferiram na segmentação da área dos polígonos (p > 0,05), pela RNA e pelo Image J. Entretanto, apesar de interferirem na segmentação de cores de granulação, sendo p < 0,05, o coeficiente de correlação RNA/Image J foi de 0,90 com p < 0,0001. No grupo 3, os cálculos das áreas foram semelhantes pela RNA e pelo Image J (p > 0,05). Quando comparadas às áreas calculadas pelos programas às medidas-padrão, o coeficiente de correlação foi significante (p < 0,0001) para todas as áreas. A segmentação das áreas das úlceras do grupo 4 pela RNA foi validada quando comparada à segmentação manual pelo Image J (p> 0,05). A aplicação clínica da RNA sobre o banco de imagens foi semelhante ao Image J para a segmentação das áreas (p > 0,05). Enfim, a rede neural artificial desenvolvida no Matlab 7.0 mostrou desempenho eficaz e validado na segmentação das úlceras de perna quanto à automatização do cálculo das áreas total, de fibrina e de granulação, semelhante à oferecida manualmente pelo programa Image J. Além disso, mostrou-se de grande aplicação clínica devido a facilidade de sua utilização através da interface web criada, sua praticidade, não interferência do usuário (automatização), propriedades essas que a consolida como uma metodologia adequada para o acompanhamento dinâmico-terapêutico da evolução das úlceras cutâneas. / Cutaneous ulcers are a public health problem worldwide. The efficiency of their treatment is observed through the reduction on the total affected areas, slough (yellow) and granulation (red) of the ulcer, manually calculated and/or through images, which are delayed processes usually performed after medical consultation. This work proposes a new non-invasive and automated technique to follow-up ulcers through artificial neural networks (ANN). Digital images from the ADUN (Neurovascular Ulcers Dermatology Ambulatory) image bank - FMRP General Hospital (Ribeirão Preto Medical School - University of São Paulo) were used and randomly selected as follows: 50 images for ANN training and 250 for the ANN test. For the ANN validation, the following groups were created: 1 (n=15 polygonal images with areas and colors previously defined); 2 (n=15 polygonal images with areas and colors previously defined submitted to illumination, brightness, contrast and saturation variation); 3 (n=15 polygonal images composed of slough and granulation textures); 4 (n=15 images of actual cutaneous ulcers with their surface fully filled in black). To evaluate its clinical application, 50 standard images were used and submitted to calculation of areas using ANN. The ANN results were compared to those obtained with the Image J software (manual segmentation) and/or to standard measures. The programs were statistically considered similar when p > 0.05 through the t Student test. When p < 0.05 and r is positive, the Pearson correlation coefficient was considered. The cutaneous ulcer image bank was efficient for the acquisition of images, for the creation and execution of color extraction algorithms, ANN training and tests. The artificial neural network developed presented performance similar to that obtained with the Image J software and to standard measures adopted for the segmentation of figures from group 1, with p > 0.05 for total areas, slough and granulation. In the noise interference assessment (group 2), it was verified that such factors did not interfere in the polygons area segmentation (p > 0.05) through both ANN and Image J. However, although interfering in the color and granulation segmentation, with p < 0.05, the ANN/Image J correlation coefficient was of 0.90, with p < 0.0001. In group 3, the calculations of areas were similar through both ANN and Image J (p > 0.05). When compared to standard measures, the correlation coefficient was significant (p < 0.0001) for all areas. The segmentation of ulcer areas of group 4 through ANN was validated when compared to manual segmentation through Image J (p> 0.05). The clinical application of ANN on the image bank was similar to Image J for the segmentation of areas (p > 0.05). Finally, the Artificial Neural Network developed in Matlab 7.0 environment showed good performance and was validated in the segmentation of leg ulcers in relation to the automation of the calculation of total areas, slough and granulation, which was similar to that obtained with the Image J software. Moreover, it presented a large clinical application due to the easiness of its application through the web interface created and the non interference of the user (automation), properties that consolidate this technique as a suitable methodology for the dynamic-therapeutic follow-up of the evolution of cutaneous ulcers.
534

Proposição de um modelo preditivo do Ibovespa por meio da utilização de redes neurais artificiais

Santos, Augusto Felippe Caramico dos 30 May 2011 (has links)
Made available in DSpace on 2016-04-25T16:44:20Z (GMT). No. of bitstreams: 1 Augusto Felippe Caramico dos Santos.pdf: 2861062 bytes, checksum: 6d3cef8dbb21f87933057ea82ef60089 (MD5) Previous issue date: 2011-05-30 / A model was developed with the purpose to estimate a potential anticipation of the reversal of the short-term trend for Ibovespa, reducing the investor s risk exposure and seeking to increase its return through statistical techniques, like the Multiple Regression Analysis. Besides, the Artificial Neural Networks have been used to build an algorithm able to anticipate trends and forecast its reversal. The study was limited to the São Paulo Stock Exchange in its main index (Ibovespa), within the period between July 1994 and December 2009, taking into consideration only its value in points. In order to build the artificial model, historical information have been collected from the Brazilian, American, European and Asian markets. It was found that the error percentage of the model built through the Neural Network was 21.76%, which allows us to conclude that in 78.24% of the cases, the model proposed through the use of neural networks could accurately determine the existing relationship between the input variables. When a fictitious application was performed based on the market conditions above mentioned, a gross return of 65.37% was found for responses with unknown data, in comparison with 53.51% of Ibovespa for the same period. Therefore, it can be concluded that the developed model presented conditions to treat the unknown data in a satisfactory manner and reach an additional gain in relation to the market in the analyzed period / Foi elaborado um modelo com a finalidade de estimar uma possível antecipação do momento de reversão da tendência de curto prazo para o Ibovespa, reduzindo a exposição ao risco pelo investidor e buscando aumentar seu retorno através de técnicas estatísticas, como a Análise de Regressão Múltipla. Além disso, utilizou-se as Redes Neurais Artificiais, para a construção de um algoritmo capaz de antecipar as tendências e prever a sua reversão. O estudo foi limitado a Bolsa de Valores de São Paulo em seu principal indicador, o Índice Bovespa no período de julho/1994 a dezembro/2009 considerando somente seu valor em pontos, tendo sido coletados dados históricos do mercado brasileiro, americano, europeu e asiático para a composição do modelo artificial. Verificou-se que a porcentagem de erro do modelo construído através da Rede Neural foi de 21,76%, podendo-se assim dizer que em 78,24% dos casos, o modelo proposto por meio da utilização das redes neurais conseguiu determinar acertadamente a relação existente entre as variáveis de entrada. Ao se realizar uma aplicação fictícia, considerando as condições de mercado acima mencionadas foi obtido um retorno bruto de 65,37% para respostas com dados desconhecidos, ante 53,51% do Ibovespa para o mesmo período, podendo-se dizer que o modelo elaborado apresentou condições de tratar de forma satisfatória os dados desconhecidos e obter um ganho adicional em relação ao mercado no período estudado
535

DHyANA : neuromorphic architecture for liquid computing / DHyANA : uma arquitetura digital neuromórfica hierárquica para máquinas de estado líquido

Holanda, Priscila Cavalcante January 2016 (has links)
Redes Neurais têm sido um tema de pesquisas por pelo menos sessenta anos. Desde a eficácia no processamento de informações à incrível capacidade de tolerar falhas, são incontáveis os mecanismos no cérebro que nos fascinam. Assim, não é nenhuma surpresa que, na medida que tecnologias facilitadoras tornam-se disponíveis, cientistas e engenheiros têm aumentado os esforços para o compreender e simular. Em uma abordagem semelhante à do Projeto Genoma Humano, a busca por tecnologias inovadoras na área deu origem a projetos internacionais que custam bilhões de dólares, o que alguns denominam o despertar global de pesquisa da neurociência. Avanços em hardware fizeram a simulação de milhões ou até bilhões de neurônios possível. No entanto, as abordagens existentes ainda não são capazes de fornecer a densidade de conexões necessária ao enorme número de neurônios e sinapses. Neste sentido, este trabalho propõe DHyANA (Arquitetura Digital Neuromórfica Hierárquica), uma nova arquitetura em hardware para redes neurais pulsadas, a qual utiliza comunicação em rede-em-chip hierárquica. A arquitetura é otimizada para implementações de Máquinas de Estado Líquido. A arquitetura DHyANA foi exaustivamente testada em plataformas de simulação, bem como implementada em uma FPGA Stratix IV da Altera. Além disso, foi realizada a síntese lógica em tecnologia 65nm, a fim de melhor avaliar e comparar o sistema resultante com projetos similares, alcançando uma área de 0,23mm2 e potência de 147mW para uma implementação de 256 neurônios. / Neural Networks has been a subject of research for at least sixty years. From the effectiveness in processing information to the amazing ability of tolerating faults, there are countless processing mechanisms in the brain that fascinates us. Thereupon, it comes with no surprise that as enabling technologies have become available, scientists and engineers have raised the efforts to understand, simulate and mimic parts of it. In a similar approach to that of the Human Genome Project, the quest for innovative technologies within the field has given birth to billion dollar projects and global efforts, what some call a global blossom of neuroscience research. Advances in hardware have made the simulation of millions or even billions of neurons possible. However, existing approaches cannot yet provide the even more dense interconnect for the massive number of neurons and synapses required. In this regard, this work proposes DHyANA (Digital HierArchical Neuromorphic Architecture), a new hardware architecture for a spiking neural network using hierarchical network-on-chip communication. The architecture is optimized for Liquid State Machine (LSM) implementations. DHyANA was exhaustively tested in simulation platforms, as well as implemented in an Altera Stratix IV FPGA. Furthermore, a logic synthesis analysis using 65-nm CMOS technology was performed in order to evaluate and better compare the resulting system with similar designs, achieving an area of 0.23mm2 and a power dissipation of 147mW for a 256 neurons implementation.
536

Inserção de células geradas automaticamente em um fluxo de projeto Standard Cell

Guimarães Júnior, Daniel Silva January 2016 (has links)
Este trabalho apresenta o desenvolvimento de um fluxo de projeto de circuitos digitais integrados, visando a incluir células geradas automaticamente pela ferramenta ASTRAN. Como parte integrante deste novo fluxo, desenvolveu-se uma nova técnica de comparação entre células, utilizando Redes Neurais Artificiais, para a modelagem das células ASTRAN, esta técnica se mostrou flexível ao se adaptar a diversos tipos de células e com resultados robustos tendo 5% de desvio padrão e 4% para o erro relativo. Também, foi criada uma ferramenta capaz de substituir células comerciais por células ASTRAN, tendo como objetivo melhorar as características de potência consumida e área utilizada pelo circuito, e por fim gerando um circuito misto composto de células comerciais feitas à mão e células ASTRAN geradas automaticamente. O foco principal deste trabalho encontra-se na integração do fluxo de geração de células geradas automaticamente a um fluxo de síntese comercial de circuitos digitais. Os resultados obtidos mostraram-se promissores, obtendo-se ganhos em redução de área e potência dos circuitos analisados. Em média os circuitos tiveram uma redução de 3,77% na potência consumida e 1,25% menos área utilizada. Com um acréscimo de 0,64% por parte do atraso total do circuito. / This work presents the development of a design flow for digital integrated circuits, including cells generated automatically by the ASTRAN tool. Moreover, a new technique, using Artificial Neural Networks, was developed to perform a comparison between two different cells, i.e. commercial and ASTRAN’s cell. This technique proved to be flexible when adapting to several types of cells and with robust results having 5% of standard deviation and 4% for relative error. Also, a new tool was developed, capable of performing cell replacement between ASTRAN and commercial cells, to improve power consumption an used area. Finally a mixed circuit composed of handmade commercial cells and cells automatically generated by ASTRAN was generated. A target was to mix an automatic cell synthesis tool with commercial synthesis tools dedicated to standard cells. Comparisons have shown that our approach was able to produce satisfactory results related area and power consumption. In average the circuits had a reduction of 3.77% in the power consumed and 1.25% less used area. With an increase of 0.64% due to the total delay of the circuit.
537

Band selection in hyperspectral images using artificial neural networks / Sélection de bandes d’images hyperspectrales basée sur réseau de neurones

Habermann, Mateus 27 September 2018 (has links)
Les images hyperspectrales (HSI) fournissent des informations spectrales détaillées sur les objets analysés. Étant donné que différents matériaux ont des signatures spectrales distinctes, les objets ayant des couleurs et des formes similaires peuvent être distingués dans le domaine spectral. Toutefois, l’énorme quantité de données peut poser des problèmes en termes de stockage et de transmission des données. De plus, la haute dimensionnalité des images hyperspectrales peut entraîner un surajustement du classificateur en cas de données d'apprentissage insuffisantes. Une façon de résoudre de tels problèmes consiste à effectuer une sélection de bande (BS), car elle réduit la taille du jeu de données tout en conservant des informations utiles et originales. Dans cette thèse, nous proposons trois méthodes de sélection de bande différentes. La première est supervisée, conçu pour utiliser seulement 20% des données disponibles. Pour chaque classe du jeu de données, une classification binaire un contre tous utilisant un réseau de neurones est effectuée et les bandes liées aux poids le plus grand et le plus petit sont sélectionnées. Au cours de ce processus, les bandes les plus corrélées avec les bandes déjà sélectionnées sont rejetées. Par conséquent, la méthode proposée peut être considérée comme une approche de sélection de bande orientée par des classes. La deuxième méthode que nous proposons est une version non supervisée du premier framework. Au lieu d'utiliser les informations de classe, l'algorithme K-Means est utilisé pour effectuer une classification binaire successive de l'ensemble de données. Pour chaque paire de grappes, un réseau de neurones à une seule couche est utilisé pour rechercher l'hyperplan de séparation, puis la sélection des bandes est effectuée comme décrit précédemment. Pour la troisième méthode de BS proposée, nous tirons parti de la nature non supervisée des auto-encodeurs. Pendant la phase d'apprentissage, le vecteur d'entrée est soumis au bruit de masquage. Certaines positions de ce vecteur sont basculées de manière aléatoire sur zéro et l'erreur de reconstruction est calculée sur la base du vecteur d'entrée non corrompu. Plus l'erreur est importante, plus les fonctionnalités masquées sont importantes. Ainsi, à la fin, il est possible d'avoir un classement des bandes spectrales de l'ensemble de données. / Hyperspectral images (HSIs) are capable of providing a detailed spectral information about scenes or objects under analysis. It is possible thanks to both numerous and contiguous bands contained in such images. Given that di_erent materials have distinct spectral signatures, objects that have similar colors and shape can be distinguished in the spectral domain that goes beyond the visual range. However, in a pattern recognition system, the huge amount of data contained in HSIs may pose problems in terms of data storage and transmission. Also, the high dimensionality of hyperspectral images can cause the overfitting of the classifer in case of insufficient training data. One way to solve such problems is to perform band selection(BS) in HSIs, because it decreases the size of the dataset while keeping both useful and original information. In this thesis, we propose three different band selection frameworks. The first one is a supervised one, and it is designed to use only 20% of the available training data. For each class in the dataset, a binary one-versus-all classification using a single-layer neural network is performed, and the bands linked to the largest and smallest coefficients of the resulting hyperplane are selected. During this process, the most correlated bands with the bands already selected are automatically discarded, following a procedure also proposed in this thesis. Consequently, the proposed method may be seen as a classoriented band selection approach, allowing a BS criterion that meets the needs of each class. The second method we propose is an unsupervised version of the first framework. Instead of using the class information, the K-Means algorithm is used to perform successive binary clustering of the dataset. For each pair of clusters, a single-layer neural network is used to find the separating hyperplane, then the selection of bands is done as previously described. For the third proposed BS framework, we take advantage of the unsupervised nature of autoencoders. During the training phase, the input vector is subjected to masking Noise - some positions of this vector are randomly flipped to zero and the reconstruction error is calculated based on the uncorrupted input vector. The bigger the error, the more important the masked features are. Thus, at the end, it is possible to have a ranking of the spectral bands of the dataset.
538

Estudo da reprodução do comportamento hidráulico de sistemas de abastecimento de água via redes neurais artificiais (RNAs) / Study of the reproduction of the hydraulic behavior of water supply systems through artificial neural networks (ANN)

Lourencetti, Fernando Henrique 14 October 2011 (has links)
O objetivo deste trabalho foi analisar o comportamento hidráulico de sistemas de abastecimento de água (SDAA), via redes neurais artificiais (RNA). Tendo em vista que o uso de um modelo de simulação hidráulica é inviável para operações em tempo real em SDAA devido à carga computacional que impõe, a abordagem adotada visa capturar o seu conhecimento de uma forma mais eficiente por meio de uma RNA de camada oculta única. Desta forma os conjuntos de dados provenientes de simulações hidráulicas realizadas utilizando o conhecido e consagrado software EPANET combinando diferentes situações e avaliando as variáveis que compõem os dois sistemas distintos, foram tabuladas e inseridas em forma de rotinas de programação desenvolvidas na plataforma do software Scilab. Os conjuntos de dados (entradas e saídas) utilizados para treinar a RNA, foram divididos em conjuntos de treino, validação cruzada e testes, aplicada a dois SDAAs distintos. O primeiro denominado Anytown modificado tratou de um sistema hipotético, cuja finalidade foi avaliar a metodologia e fundamentar o conhecimento. Posteriormente aplicou-se a metodologia em outro SDAA, real e mais complexo, utilizado na conferência de calibração WDSA Water Distribution System Analysis, realizada na cidade de Tucson, Arizona (EUA) entre os dias 12 e 15 de setembro de 2010. Desta maneira foram obtidos valores simulados de potência energética consumida no bombeamento, níveis de reservação e pressões, muito próximos dos valores reais para os dois SDAAs estudados, comprovando que as RNAs identificadas podem ser consideradas ferramentas eficientes na substituição dos modelos de simulação hidráulica convencionais. / The objective of this study was to analyze the hydraulic systems of water supply (WSS), using artificial neural networks (ANN). Since the use of a hydraulic simulation model is impractical for real-time operations due to the computational load WSS imposing, the approach aims to capture their knowledge more efficiently through a single hidden layer of RNA. Thus the data sets from hydraulic simulations conducted using the known and established software EPANET combining different situations and evaluating the variables that make up the two different systems were tabulated and entered in the form of programming routines developed in Scilab software platform. The data sets (inputs and outputs) used to train the ANN, were divided into training sets, cross validation and testing, applied to two distinct WSS. The first called Anytown modified dealt with a hypothetical system, whose purpose was to evaluate the methodology and knowledge base. Later the methodology was applied in another WSS, real and complex, used in the calibration WDSA conference Water Distribution System Analysis, held in Tucson, Arizona (USA) between 12 and 15 September 2010. Thus were obtained simulated values of the power energy consumed in pumping, pressures and reservation levels very close to actual values for the two WSS studied, proving that the identified ANN can be considered effective tools to replace in the conventional hydraulic simulation models.
539

O efeito das lesões nas capacidades de memorização e generalização de um perceptron / Effect of lesion on the storage and generalization capabilities of a perceptron

Barbato, Daniela Maria Lemos 08 September 1993 (has links)
Perceptrons são redes neurais sem retroalimentação onde os neurônios estão dispostos em camadas. O perceptron considerado neste trabalho consiste de uma camada de N neurônios sensores Si = ±1; i = 1, , N ligados a um neurônio motor &#948; através das conexões sinápticas (pesos) Wi; i = 1, ..., N cujos valores restringimos a ±1. Utilizando o formalismo de Mecânica Estatística desenvolvido por Gardner (1988), estudamos os efeitos de eliminarmos uma fração de conexões sinápticas (diluição ) nas capacidades de memorização e generalização da rede neural descrita acima. Consideramos também o efeito de ruído atuando durante o estágio de treinamento do perceptron. Consideramos dois tipos de diluição: diluição móvel na qual os pesos são cortados de maneira a minimizar o erro de treinamento e diluição fixa na qual os pesos são cortados aleatoriamente. A diluição móvel, que modela lesões em cérebro de pacientes muito jovens, pode melhorar a capacidade de memorização e, no caso da rede ser treinada com ruído, também pode melhorar a capacidade de generalização. Por outro lado, a diluição fixa, que modela lesões em cérebros de pacientes adultos, sempre degrada o desempenho da rede, sendo seu principal efeito introduzir um ruído efetivo nos exemplos de treinamento. / Perceptrons are layered, feed-forward neural networks. In this work we consider a per-ceptron composed of one input layer with N sensor neurons Si = ±1; i = 1, ... , N which are connected to a single motor neuron &#948; through the synaptic weights Wj; i = 1, ... , N, which are constrained to take on the values ±1 only. Using the Statistical Mechanics formalism developed by Gardner (1988), we study the effects of eliminating a fraction of synaptic weights on the memorization and generalization capabilities of the neural network described above. We consider also the effects of noise acting during the perceptron training stage. We consider two types of dilution: annealed dilution, where the weights are cut so as to minimize the training error and quenched dilution, where the weights are cut randomly. The annealed dilution which models brain damage in very young patients can improve the memorization ability and, in the case of training with noise, it can also improve the generalization ability. On the other hand, the quenched dilution which models lesions on adult brains always degrades the performance of the network, its main effect being to introduce an effective noise in the training examples.
540

ESTIMATION OF DEPTH FROM DEFOCUS BLUR IN VIRTUAL ENVIRONMENTS COMPARING GRAPH CUTS AND CONVOLUTIONAL NEURAL NETWORK

Prodipto Chowdhury (5931032) 17 January 2019 (has links)
Depth estimation is one of the most important problems in computer vision. It has attracted a lot of attention because it has applications in many areas, such as robotics, VR and AR, self-driving cars etc. Using the defocus blur of a camera lens is one of the methods of depth estimation. In this thesis, we have researched this technique in virtual environments. Virtual datasets have been created for this purpose. In this research, we have applied graph cuts and convolutional neural network (DfD-net) to estimate depth from defocus blur using a natural (Middlebury) and a virtual (Maya) dataset. Graph Cuts showed similar performance for both natural and virtual datasets in terms of NMAE and NRMSE. However, with regard to SSIM, the performance of graph cuts is 4% better for Middlebury compared to Maya. We have trained the DfD-net using the natural and the virtual dataset and then combining both datasets. The network trained by the virtual dataset performed best for both datasets. The performance of graph-cuts and DfD-net have been compared. Graph-Cuts performance is 7% better than DfD-Net in terms of SSIM for Middlebury images. For Maya images, DfD-Net outperforms Graph-Cuts by 2%. With regard to NRMSE, Graph-Cuts and DfD-net shows similar performance for Maya images. For Middlebury images, Graph-cuts is 1.8% better. The algorithms show no difference in performance in terms of NMAE. The time DfD-net takes to generate depth maps compared to graph cuts is 500 times less for Maya images and 200 times less for Middlebury images.

Page generated in 0.0392 seconds