• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2527
  • 79
  • 48
  • 37
  • 37
  • 37
  • 28
  • 21
  • 20
  • 20
  • 19
  • 9
  • 2
  • Tagged with
  • 2668
  • 2668
  • 1478
  • 1215
  • 996
  • 959
  • 799
  • 462
  • 434
  • 315
  • 268
  • 259
  • 243
  • 209
  • 205
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
151

SFPT neural: nova técnica de segmentação de fissuras pulmonares baseada em texturas em imagens de tomografia computadorizadas do tórax / SPFT neural: novel segmentation technique of pulmonary fissures based on textures in computerized tomography images of the chest

Cavalcanti Neto, Edson 19 December 2014 (has links)
CAVALCANTI NETO, E. SFPT neural: nova técnica de segmentação de fissuras pulmonares baseada em texturas em imagens de tomografia computadorizadas do tórax. 2014. 74 f. Dissertação (Mestrado em Engenharia de Teleinformática) – Centro de Tecnologia, Universidade Federal do Ceará, Fortaleza, 2014. / Submitted by Marlene Sousa (mmarlene@ufc.br) on 2015-07-17T17:35:19Z No. of bitstreams: 1 2014_dis_ecavalcantineto.pdf: 7721842 bytes, checksum: 9874d5d6d4f7a84b9f01ba0bec5c7724 (MD5) / Approved for entry into archive by Marlene Sousa(mmarlene@ufc.br) on 2015-07-22T16:47:02Z (GMT) No. of bitstreams: 1 2014_dis_ecavalcantineto.pdf: 7721842 bytes, checksum: 9874d5d6d4f7a84b9f01ba0bec5c7724 (MD5) / Made available in DSpace on 2015-07-22T16:47:02Z (GMT). No. of bitstreams: 1 2014_dis_ecavalcantineto.pdf: 7721842 bytes, checksum: 9874d5d6d4f7a84b9f01ba0bec5c7724 (MD5) Previous issue date: 2014-12-19 / Among all cancers, lung cancer (LC) is one of the most common tumors, an increase of 2% per year on its worldwide incidence. In Brazil, for the year of 2014, 27,330 new cases of LC are estimated, these being 16,400 in men and 10,930 in women. In this context, it is of fundamental importance for public health the identication on early stages of lung diseases. The diagnosis assistance shows to be important both from a clinical standpoint as in research. Among the factors contributing to this scene, one important is the increasing accuracy of diagnosis of a medical expert as you increase the number of information about the patient's condition. Thus, certain disorders might be detected early, including saving lives in some cases. The initial treatment for this disease consists of lobectomy. In this context, it is customary to perform the segmentation of lung lobes in CT images to extract data and assist in planning for lobectomy. The segmentation of the lobes from CT images is usually obtained by detection of pulmonary fissures. Thus, in order to obtain a more effective segmentation of pulmonary fissures, and perform a completely independent process from the other structures present in the CT scan, the present work has the objective to perform the fissure segmentation using LBP texture measures and Neural Networks (NN). To implement the algorithm we used one MLP with 60 inputs, 120 hidden neurons and 2 output neurons. The input parameters for the network was the LBP histogram of the voxel being analyzed. For network training, it was necessary to create a system to label the features as fissures and non-fissures manually, where the user selects the fissure pixels class. To perform the validation of the algorithm was necessary to create a "gold standard"in which it was extracted a total of 100 images from 5 exams from the dataset LOLA11, where these images were the fissures were highlighted by two experts. From the gold standard, the proposed algorithm was processed and the results were obtained. For all tested images, the classifier obtained a better performance when the size of 15x15 pixels of the window was used to generate the histogram of the LBP. To get to this definition were tested sizes of 11x11, 15x15, 17x17 and 21x21 and the results were based on metrics comaprados ACC (%), TPR (%), SPC (%) distance mean and standard deviation of the distance. The first approach to analyze the results is through the voxels defined as fissure at the end of the proposed methodology. For the proposed methodology, using automatic detection and MLP LBP before thinning, the rates were obtained ACC= 96.7 %, TPR = 69.6 % and SPC = 96.8 % and ACC = 99 2 % TPR = 3 % and SPC = 99.81 % for the proposed method with the thinning in the end, considering the incidence of false positives and false negatives. Another approach used in the literature for evaluating methods of fissure segmentation is based on the average distance between the fissure delineated by the expert and the resulting fissure through the algorithm. Thus, the algorithm proposed in this paper was compared with the algorithm Lassen et al. (2013) by the average distance between the manual segmented and the automatically segmented fissure. The proposed algorithm with the thinning in the end achieved a shorter distance average value and a lower standard deviation compared with the method of (LASSEN et al., 2013). Finally, the results obtained for automatic segmentation of lung fissures are presented. The low incidence of false negative detections detection results, together with the significant reduction in false positive detections result in a high rate of settlement. We conclude that the segmentation technique for lung fissures is a useful target for pulmonary fissures on CT images and has potential to integrate systems that help medical diagnosis / Entre todos os tipos de câncer, o de pulmão (CP) é um dos mais comuns de todos os tumores malignos, apresentando aumento de 2% por ano na sua incidência mundial. No Brasil, para o ano de 2014 são estimados 27.330 casos novos de CP, sendo destes 16.400, em homens e 10.930 em mulheres. Neste contexto, é de fundamental importância para saúde pública realizar e determinar diagnósticos precoces e mais precisos para detectar os estágios reais das doenças pulmonares. O auxílio ao diagnóstico mostra-se importante tanto do ponto de vista clínico quanto em pesquisa. Dentre os fatores que contribuem para isto, pode-se citar o aumento da precisão do diagnóstico do médico especialista à medida que aumenta o número de informações sobre o estado do paciente. Deste modo, certas doenças podem ser detectadas precocemente, aumentando as chances de cura. O tratamento inicial para esta doença consiste na lobectomia. Nesse contexto, costuma-se realizar a segmentação dos lobos pulmonares em imagens de Tomografia Computadorizada para extrair dados e auxiliar no planejamento da lobectomia. A segmentação dos lobos a partir de imagens de TC é geralmente obtida através da detecção das fissuras pulmonares. Nesse sentido, com o intuito de obter uma segmentação da fissura pulmonar mais eficaz e realizar um processo totalmente independente das demais estruturas presentes no exame de TC, o presente trabalho possui o objetivo de realizar a segmentação das fissuras utilizando medidas de textura LBP e Redes Neurais Artificiais (RNA). Para a implementação do algoritmo foi utilizado uma MLP (Multilayer Perceptron) com 60 entradas, 120 neurônios na camada oculta e 2 neurônios de saída. Os parâmetros de entrada para a rede foi o histograma LBP do voxel a ser analisado. Para o treinamento da rede foi necessário criar um sistema para identificação das classes fissuras e não-fissuras de forma manual, onde o usuário seleciona os pixels da classe fissura e da não-fissura. Para realizar as validações do algoritmo foi criado um padrão-ouro que foi extraído um total de 100 imagens de 5 exames do banco de dados LOLA11. Nessas imagens, as fissuras foram destacadas por 2 especialistas. A partir do padrão-ouro, o as imagens foram processadas pelo algoritmo e assim os resultados obtidos. Para o conjunto de imagens testadas, o classificador obteve um melhor desempenho quando o tamanho, 15x15 pixels, da janela utilizada para gerar o histograma do LBP. Para chegar até essa definição foram testados os tamanhos 11x11, 15x15, 17x17 e 21x21 e os resultados foram comparados utilizando as métricas de Especificidade Es(\%), Coeficiente de Similaridade CS(%), Sensibilidade S(\%), distância média e desvio padrão da distância. A primeira abordagem de análise dos resultados é através dos voxels}definidos como fissura no final da metodologia proposta. Para a metodologia proposta, detecção automática utilizando LBP ( extit{Local Binary Pattern}) e MLP, as taxas obtidas foram CS = 96,7%, S = 69,6% e Es = 96,8% para o método proposto antes do afinamento e CS = 99,2%, S = 3% e Es = 99,81% para o método proposto com o afinamento no fim, considerando a incidência de falsos positivos e falsos negativos. Outra abordagem utilizada na literatura para avaliação de métodos de segmentação de fissuras é baseado na distância média entre a fissura delineada pelo especialista e a fissura resultante do algoritmo proposto. Desta forma, o algoritmo proposto neste trabalho foi comparado com o algoritmo de Lassen(2013) através da abordagem da distância média entre a fissura segmentada manual e a fissura segmentada de forma automática. O algoritmo proposto com afinamento no final obteve uma menor distância no valor de e um menor desvio padrão comparado com o método de Lassen(2013). Por fim, são apresentados os resultados da segmentação automática das fissuras pulmonares. A baixa incidência de detecções falso negativas, juntamente com a redução significativa de detecções falso positivas, resultam em taxa de acerto elevada. Conclui-se que a técnica de segmentação de fissuras pulmonares é um algoritmo útil para segmentar fissuras pulmonares em imagens de TC, e com o potencial de integrar sistemas que auxiliem o diagnóstico médico
152

SINPATCO - Sistema Inteligente para Diagnóstico de Patologias da Coluna Vertebral / Intelligent System for Diagnosis of Vertebral Columm Pathologies

Rocha Neto, Ajalmar Rêgo da 28 April 2006 (has links)
ROCHA NETO, A. R. SINPATCO - Sistema Inteligente para Diagnóstico de Patologias da Coluna Vertebral. 2006. 105 f. Dissertação (Mestrado em Engenharia de Teleinformática) – Centro de Tecnologia, Universidade Federal do Ceará, Fortaleza, 2006. / Submitted by Marlene Sousa (mmarlene@ufc.br) on 2016-04-01T14:51:46Z No. of bitstreams: 1 2006_dis_arrochaneto.pdf: 1288731 bytes, checksum: c797c37928a88bdc4cf6e4c7a109d9f1 (MD5) / Approved for entry into archive by Marlene Sousa(mmarlene@ufc.br) on 2016-04-01T17:48:57Z (GMT) No. of bitstreams: 1 2006_dis_arrochaneto.pdf: 1288731 bytes, checksum: c797c37928a88bdc4cf6e4c7a109d9f1 (MD5) / Made available in DSpace on 2016-04-01T17:48:57Z (GMT). No. of bitstreams: 1 2006_dis_arrochaneto.pdf: 1288731 bytes, checksum: c797c37928a88bdc4cf6e4c7a109d9f1 (MD5) Previous issue date: 2006-04-28 / This dissertation presents the results obtained from a computer-aided medical diagnostic system implemented through statistical and neural pattern classifiers. The Intelligent System for Diagnosis of Pathologies of the Vertebral Column (SINPATCO) has a modular architecture and is composed of three subsystems, namely: graphical interface, classification of pathology, and knowledge extraction. The graphical interface module allows a friendly man-machine interaction with the physician. The pathology classification module is implemented through difierent algorithms, such as linear and quadratic discriminants, Naive Bayes classifier, K Nearest Neighbors (KNN) classifier, Multilayer Perceptron (MLP) network, Self-Organizing Map (SOM) network, ang Generalized Regression network (GRNN). The knowledge extraction module is responsible for rule extraction from trained neural network based classifiers, in order to elucidate the neural-based diagnostic to the orthopedist. In particular, the pathology classification module of the SINPATCO platform uses recently proposed biomechanical attributes to categorize a patient into one out of three classes: normal subjects, subjects with spondilolistesis, and subjects with disk hernia. All the aforementioned classifiers are evaluated with respect their pathology recognition rate, number of false positive cases, number of false negative cases and sensitivity to outliers. The contribution of this work is manifold. Starting from the fact that it is probably the first to use (within the orthopaedic medicine) a recently proposed set of biomechanical measurements for the design of classifiers, this work also evaluates several pattern classifiers in the diagnosis of patologies of the vertebral column, and allows knowledge extraction from the trained classifiers in order to elucidate the obtained diagnostic to the physician. To the best of our knowledge, the combination of these three contributions makes the SINPATCO platform an innovative computer-aid tool for the orthopedist, facilitating the work of these professionals. Despite the fact that the SINPATCO platform can serve as a computer-aided diagnostic tool in the orthopedic medicine, it can also be used by non-expert clinicians, in order to minimize the lack of orthopedists in remote regions, speeding up the treatment and the transferring of patients to more developed centers. / Esta dissertação apresenta os resultados de um sistema de auxílio ao diagnóstico médico implementado através de classificadores estatísticos e neurais. O Sistema Inteligente para Diagnóstico de Patologias da Coluna Vertebral (SINPATCO) é composto por três subsistemas, a saber: interface gráfica, classificação de patologias e extração de conhecimento. O módulo de interface gráfica permite uma interação amigável com o especialista médico. O módulo de classificação automática de patologias é implementado por diferentes algoritmos, tais como discriminantes linear e quadrático, Naive Bayes, K-Vizinhos mais Próximos (KNN), rede MLP, rede SOM e rede GRNN. O módulo de extra ção de conhecimento é responsável pela extração de regras proposicionais a partir dos classificadores treinados, a fim de elucidar para o médico ortopedista como o classificador chega ao diagnóstico final. Em particular, o módulo de classificação de patologias da plataforma SINPATCO utiliza atributos biomecânicos recentemente propostos para efetuar a categorização de um paciente em três classes: pacientes normais, pacientes com espondilolistese e pacientes com hérnia de disco. Os diversos classificadores supracitados são comparados com relação à taxa de acerto, número de falsos positivos, número de falsos negativos e sensibilidade a amostras discrepantes (outliers). As contribuições deste trabalho são variadas, indo desde do fato de ser provavelmente o primeiro a usar um conjunto recente de atributos biomecânicos para projeto de classificadores na área de medicina ortopédica, passando pelo estudo comparativo do desempenho de vários classificadores, até a extração de regras a partir dos classificadores com melhor desempenho para explicar o diagnóstico obtido ao médico, para posterior avaliação. Até onde se tem conhecimento, a combinação destas três contribuições torna o sistema SINPATCO inovador na área de ortopedia médica, servindo de auxílio na atividade de diagnóstico e facilitando o trabalho dos profissionais dessa área. Além servir como ferramenta de auxílio ao diagnóstico do médico especializado em ortopedia, o sistema SINPATCO pode ser usado por clínicos não-especialistas em ortopedia, a fim de minimizar a carência de ortopedistas em regiões remotas, agilizando o atendimento e o encaminhamento do paciente para centros mais desenvolvidos.
153

Uma contribuição ao problema de seleção de modelos neurais usando o princípio de máxima correlação dos erros / A contribution to the problem of selection of neural models using the beginning of maximum correlation of the errors

Medeiros, Cláudio Marques de Sá 08 May 2008 (has links)
MEDEIROS, C. M. S. Uma contribuição ao problema de seleção de modelos neurais usando o princípio de máxima correlação dos erros. 2008. 145 f. Tese (Doutorado em Engenharia de Teleinformática) – Centro de Tecnologia, Universidade Federal do Ceará, Fortaleza, 2008. / Submitted by Marlene Sousa (mmarlene@ufc.br) on 2016-04-04T13:09:55Z No. of bitstreams: 1 2008_tese_cmsmedeiros.pdf: 1938025 bytes, checksum: 3736bbbf2ed1d1c5db4f522e6cd100e5 (MD5) / Approved for entry into archive by Marlene Sousa(mmarlene@ufc.br) on 2016-04-06T17:28:37Z (GMT) No. of bitstreams: 1 2008_tese_cmsmedeiros.pdf: 1938025 bytes, checksum: 3736bbbf2ed1d1c5db4f522e6cd100e5 (MD5) / Made available in DSpace on 2016-04-06T17:28:37Z (GMT). No. of bitstreams: 1 2008_tese_cmsmedeiros.pdf: 1938025 bytes, checksum: 3736bbbf2ed1d1c5db4f522e6cd100e5 (MD5) Previous issue date: 2008-05-08 / This thesis proposes a new pruning method which eliminates redundant weights in a multilayer perceptron (MLP). Conventional pruning techniques, like Optimal Brain Surgeon (OBS) and Optimal Brain Damage (OBD), are based on weight sensitivity analysis, which requires the inversion of the error Hessian matrix of the loss function (i.e. mean squared error). This inversion is specially susceptible to numerical problems due to poor conditioning of the Hessian matrix and demands great computational efforts. Another kind of pruning method is based on the regularization of the loss function, but it requires the determination of the regularization parameter by trial and error. The proposed method is based on "Maximum Correlation Errors Principle" (MAXCORE). The idea in this principle is to evaluate the importance of each network connection by calculating the cross correlation among errors in a layer and the back-propagated errors in the preceding layer, starting from the output layer and working through the network until the input layer is reached. The connections which have larger correlations remain and the others are pruned from the network. The evident advantage of this procedure is its simplicity, since matrix inversion or parameter adjustment are not necessary. The performance of the proposed method is evaluated in pattern classifi cation tasks and the results are compared to those achieved by the OBS/OBD techniques and also by regularization-based method. For this purpose, arti ficial data sets are used to highlight some important characteristics of the proposed methodology. Furthermore, well known benchmarking data sets, such as IRIS, WINE and DERMATOLOGY, are also used for the sake of evaluation. A real-world biomedical data set related to pathologies of the vertebral column is also used. The results obtained show that the proposed method achieves equivalent or superior performance compared to conventional pruning methods, with the additional advantages of low computational cost and simplicity. The proposed method also presents e ficient behavior in pruning the input units, which suggests its use as a feature selection method. / Propõe-se nesta tese um método de poda de pesos para redes Perceptron Multicamadas (MLP). Técnicas clássicas de poda convencionais, tais como Optimal Brain Surgeon(OBS) e Optimal Brain Damage(OBD), baseiam-se na análise de sensibilidade de cada peso da rede, o que requer a determinação da inversa da matriz Hessiana da função-custo. A inversão da matriz Hessiana, além de possuir um alto custo computacional, é bastante susceptível a problemas numéricos decorrentes do mal-condicionamento da mesma. Métodos de poda baseados na regularização da função-custo, por outro lado, exigem a determinação por tentativa-e-erro de um parâmetro de regularização. Tendo em mente as limitações dos métodos de poda supracitados, o método proposto baseia-se no "Princípio da Máxima Correlação dos Erros" (MAXCORE). A idéia consiste em analisar a importância de cada conexão da rede a partir da correlação cruzada entre os erros em uma camada e os erros retropropagados para a camada anterior, partindo da camada de saída em direção à camada de entrada. As conexões que produzem as maiores correlações tendem a se manter na rede podada. Uma vantagem imediata deste procedimento está em não requerer a inversão de matrizes, nem um parâmetro de regularização. O desempenho do método proposto é avaliado em problemas de classi ficação de padrões e os resultados são comparados aos obtidos pelos métodos OBS/OBD e por um método de poda baseado em regularização. Para este fi m, são usados, além de dados arti cialmente criados para salientar características importantes do método, os conjuntos de dados bem conhecidos da comunidade de aprendizado de máquinas: Iris, Wine e Dermatology. Utilizou-se também um conjunto de dados reais referentes ao diagnóstico de patologias da coluna vertebral. Os resultados obtidos mostram que o método proposto apresenta desempenho equivalente ou superior aos métodos de poda convencionais, com as vantagens adicionais do baixo custo computacional e simplicidade. O método proposto também mostrou-se bastante agressivo na poda de unidades de entrada (atributos), o que sugere a sua aplicação em seleção de características.
154

Desenvolvimento de nariz eletrônico para compostos voláteis da cerveja

Reitenbach, Amanda Felipe January 2016 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Engenharia Química, Florianópolis, 2016. / Made available in DSpace on 2017-06-27T04:14:53Z (GMT). No. of bitstreams: 1 345553.pdf: 7323199 bytes, checksum: fa3146a5426f6f53039705b93fb53e95 (MD5) Previous issue date: 2016 / A cerveja é uma das bebidas mais sensíveis e instáveis do ponto de vista sensorial. Possui sabor e aroma complexos e moderados, mas apresenta pouca estabilidade de aroma, se comparada a outras bebidas alcoólicas. O sabor e aroma da cerveja variam devido a uma ampla gama de influências que ocorrem em todos os estágios do processo de preparação e durante a estocagem. A cerveja é composta de mais de mil componentes que podem contribuir para o sabor do produto, conferindo à bebida aromas agradáveis ou, em muitos casos, desagradáveis, quando há presença de compostos denominados off-flavors. A presença dos off-flavors é um dos problemas mais sérios na indústria cervejeira, porque a maioria dos consumidores julga o produto principalmente pela qualidade do seu sabor. Sua avaliação é complexa e primordial no controle de qualidade da indústria cervejeira, e comumente é realizada por meio de técnicas de análise, por vezes de alto custo, morosas ou mesmo subjetivas. O presente trabalho trata do desenvolvimento de um nariz eletrônico que avalie e detecte compostos indesejáveis em amostras de cervejas, sendo uma nova proposta para o controle de qualidade de aromas. O nariz eletrônico, também conhecido como e-nose, é um instrumento constituído por um arranjo de sensores parcialmente seletivos, que tem sido muito utilizado na análise de voláteis alimentares. A tecnologia dos narizes eletrônicos procura detectar o perfil dos compostos voláteis e necessita de uma quantidade pequena de amostra (15 mL), permitindo resultados rápidos e de menor custo. Para o processamento das informações recebidas do e-nose, é necessário que o equipamento seja acoplado a uma interface multivariada capaz de reconhecer padrões aromáticos - as redes neurais artificiais - e que analise os perfis aromáticos. Para resposta elétrica dos sensores (medidas de capacitância), foi utilizada a rede neural artificial do tipo probabilística PNN, também analise de componentes principais PCA, reconhecendo e classificando os padrões aromáticos encontrados na cerveja. Os resultados do presente estudo mostram que a diferença em entre os grupos de painel treinado e não treinado foi significativa, mostrando a necessidade de treinamento para melhor identificação de compostos a serem analisados. Observando o as análises de PCA e PNN foi observado que somente alguns compostos não foram identificados pelos métodos de reconhecimento de padrão, o que sugere que mais sensores poderiam ser implementados no equipamento para ampliar o reconhecimento desses compostos. A combinação do nariz eletrônico com as redes neurais artificiais se mostra uma alternativa promissora para o desenvolvimento de novos produtos, para a comparação de similaridades entre produtos concorrentes e para o controle da qualidade aromática de cerveja.<br> / Abstract : From a sensorial point of view, beer is one of the most delicate and unstable beverages. It has complex and moderate aromas and flavors, but little aroma stability, when compared to other alcoholic beverages. Beer?s flavor and aroma vary due to a wide range of influences which can occur at every single stage of its production and storage. Beer is made of over one thousand components which can contribute to the product?s flavor, providing it with pleasant or, in several cases, unpleasant aromas, due to the presence of what is called off-flavor compounds. The presence of off-flavors is one of the most serious problems in the beer industry because most consumers judge the product mainly by the quality of its flavor. Its evaluation is complex and fundamental in the beer industry?s quality control and it is commonly done by analysis techniques - usually slow, expensive and subjective ones. This project aims at developing an electronic nose which is able to evaluate and detect undesirable compounds in beer samples, as a new proposal to the aroma?s quality control. The electronic nose, also known as e-nose, is an instrument made of an array of partially selective sensors which has been long used in the analysis of food volatiles. The technology of electronic noses aims at detecting the profile of volatile compounds and needs a small sample amount (15mL), allowing quick and cheaper results. For the processing of the information acquired by the e-nose, it is necessary that the equipment is connected to a multi-varied interface which has to be able to recognize aromatic patterns - the artificial neural networks - and which analyzes the aromatic profiles. For the electrical responses of the sensors (capacitance measures), the PNN probabilistic artificial neural network was used. The PCA main compounds analysis was also used to recognize and classify the aromatic patterns found in beer. The results of this study show that the difference between the groups of trained and non-trained panels was significant, showing the necessity of training for the better assessment of the compounds to be analyzed. Observing the PCA and PNN analysis, it was noticed that only a few compounds were not identified by the standard recognition methods, which suggests that more sensors could be implemented into the equipment in order to amplify the recognition of such compounds. The combination of the electronic nose with the artificial neural networks presents itself as a promising alternative for the development of new products, for the comparison of similarities among competing products and for the control of the aromatic quality in beer.
155

Detecção de apneia através de wavelets e redes neurais

Zaniol, Cristina January 2016 (has links)
A apneia é um Distúrbio Respiratório do Sono com grande incidência, estimando-se que esteja presente em 13% dos homens e 6% das mulheres nos Estados Unidos. Correlacionados com a apoeia, estão a obesidade, a diabete mellitus e, principalmente, algumas doenças cardíacas. No Brasil ainda há poucas pesquisas, possivelmente pelo difícil acesso e pelo alto custo das Polissonografias. Neste trabalho são analisados alguns sinais de Polissonografia, como o Eletrocardiograma, a Saturação do Oxigênio no Sangue, o Flu.xo Respiratório e o Esforço Respiratório. Mostramos como a Transformada Wavelet Discreta e as Redes Nemais constituem ferramentas matemáticas computacionais que possibilitam a extração de características e a classificação, servindo de suporte ao diagnóstico utilizado at ualmente. / Apnea is a highly incident Sleep-Disordered Breathing, which a icts roughly 13% of men and 6% of the women in the USA. It is also found a few correlations with other diseases, like obesity, diabetes mellitus and, especially, certain cardiac diseases. In Brazil, there are few studies, possibly due to the di cult access and the cost of Polysomnography. In this study, we analyzed some signals of Polysomnography, as the electrocardiogram, the oxygen saturation, the respiratory ow and respiratory e ort. We show how the Discrete Wavelet Transform and Neural Network may be applied as computational mathematical tools that enable feature extraction and classi cation, serving to support the diagnosis currently used.
156

O modelo RS para redes de neurônios

Arenzon, Jeferson Jacob January 1991 (has links)
Um modelo para redes de neurônios é estudado onde a função energia E é dada pelo produto do quadrado das distâncias no espaço de fase entre o estado S da rede e os P padrões armazenados.Os tempos de convergência e as correspondentes dispersões também foram estudados numericamente e estão relacionados ao número de estados espúrios ao redor de cada configuração armazenada. Ambas quantidades sâo pequenas na fase de recuperaçâo , indicando a homogeneidade e suavidade do espaço de fase. / A model for neural networks is studied through a multineuron interaction energy function E given by the product of the squared distances in phase space between the state S of the net and the P stored patterns. Convergence times and the corresponding dispersions have also been studied numerically a.s para.meters to measure the efficiency of this model. These quantities are related to the number of spurious sLates for ea.ch configuration of stored pa.tterns. Both the average convergence time and the dispersions are small in the retrieval phase, indicating the homogeneity and smoothness of the phase space.
157

Redes neurais atratoras com padrões que possuem atividade em grafos aleatórios

Silveira, Alexandre January 2017 (has links)
Com o avanço das técnicas analíticas, tem sido possível estudadar redes neurais atratoras onde cada unidade de processamento é conectada com um número finito de vizinhos, sendo que esse número independe do tamanho do sistema. Aplicamos essas técnicas ao estudo de redes atratoras com padrões que possuem uma quebra de simetria sobre o número de bits ativos e quiscentes. O objetivo deste trabalho é estudar a capacidade da rede neural em armazenar padrões com atividade não nula, uma vez que a conectividade por neurônio é finita. Inicialmente, apresentamos os modelos predecessores de redes atratoras, como o modelo de Hopfield e os modelos de Amit, Gutfreund e Sompolinsky. Em tais modelos, o aprendizado é definido através de modificações sinápticas, inspiradas nas ideias de Hebb. Mostramos como é estimada a capacidade da rede. Mencionamos a introdução de uma função de energia para o sistema, que permite uma ligação com estudo de sistemas magnéticos através da mecânica estatística. Apresentamos também regras de aprendizado para lidar com padrões com atividade não nula. Num segundo momento, aplicamos o método de réplicas, utilizado para tratar sistemas desordenados, ao problema da rede atratora com conectividade e atividade dos padrões finitas. Utilizamos o formalismo de funções de ordem e fazemos uso do conceito de sub-redes, que permite particionar o grafo de acordo com os padrões a serem armazenados em cada neurônio. Obtemos, assim, uma função de ordem por sub-rede que contém toda informação sobre o estado do sistema. Aplicando o ansatz de simetria de réplicas, é possível derivar distribuições autoconsistentes dos campos locais para cada sub-rede. Tais distribuições passam a fornecer toda informação necessária para calcularmos os observáveis relevantes. As distribuições são calculadas numericamente a partir do método da dinâmica de populações. Em seguida, traçamos diagramas de fases para três regras de aprendizado. A partir desses, estimamos a capacidade, temperatura e atividade críticas. Observa-se a presença de fases de vidro de spin, transições decontínuas e pontos tricríticos. / With the advance of analytical tools it has been possible to study attractor neural networks in which each processing unit is connected to a finite number of neighbours. Being that, the number of neighbours is independent of the size of the system. We apply these tools to the study of attractor networks in which the patterns have a broken symmetry with respect to the number of active and inactive bits. The objetive of this work is to study the capacity of the neural network to store patterns with activity different from zero, being that the conectivity per neuron is finite. First, we present the predecessor models of attractor networks like the Hopfield and Amit, Gutfreund e Sompolinsky ones. In such models the learning is defined through sinaptic modifications, inspired by Hebb’s ideas. We show how to estimate the storage capacity of the network. We mention the introduction of a energy function for the system, which allows a link with the study of magnetic systems through statistical machanics. We present learning rules to deal with patterns which have non zero activity. In the second part, we apply the replic method, utilized to deal with disordered systems to the problem of an attractor neural network with finite conectivity and activity. We utilized the formalism of order functions and the concept of sublattices, this concept allows to partition the graph according with the patterns to be stored in each neuron. This way, we obtain an order function per sublattice which contain all the information about the state of the system. Applying the replica symmetry ansatz it is possible to derive self-consistent distributions of the local fields per sublattice. Such distributions start to provide all the necessary information to calculate the relevant observables. These distributions are calculated numerically using the population dynamics method. Then, we draw phase diagrams for three learning rules. Using these, we estimate the storage capacity, the temperature and the critical activity. We observe the presence of spin glass phases, discontinuos phase transiotions and tricritical points.
158

Influência do preenchimento de falhas de dados horários de precipitação por redes neurais artificiais (RNAs) na simulação hidrológica de base física em uma bacia rural

Depiné, Haline January 2014 (has links)
A disponibilidade de séries contínuas de chuva pode viabilizar a execução de muitos estudos que não seriam possíveis com séries que apresentam falhas, pois muitos modelos hidrológicos não apresentam bons resultados quando utilizados dados de entrada com valores faltantes. Neste estudo, as capacidades de Redes Neurais Artificiais (RNAs) foram analisadas para estimar falta de dados das estações pluviométricas. Assim, o objetivo deste trabalho consistiu em testar a utilização de séries pluviométricas preenchidas, em escala horária, a partir de redes neurais artificiais como entrada em um modelo hidrológico de base física, com parâmetros distribuídos. A hipótese levantada neste estudo é que o preenchimento de falhas de séries históricas de precipitação com as Redes Neurais Artificiais potencializam a sua utilização em estudos e na modelização hidrológica. Na metodologia foi proposto um método para preenchimento de falhas dos dados históricos de precipitação horária monitorados em dezoito postos pluviométricos. Posteriormente os dados de precipitação preenchidos foram aplicados em um modelo de previsão de vazão (SWAT). Foram simuladas sete situações para a verificação do desempenho do modelo SWAT, utilizando dados de entrada horários preenchidos de 16 postos pluviométricos, posteriormente, as séries de entrada foram sendo reduzidas, para 8 postos, 4, 2 e por fim 1 posto pluviométrico. Também foi simulado um cenário onde se utilizou como dados de entrada as 16 séries de dados horários sem preenchimento, e um cenário onde os dados horários preenchidos foram convertidos em diários. Foram construídos 1784 modelos para preenchimento de falhas nas séries de dados horários dos postos pluviométricos da bacia. O preenchimento das falhas apresentou coeficientes de analise de desempenho dos modelos elevados. De maneira geral, os valores do coeficiente de Nash-Sutcliffe (NS) encontrados no treinamento e na verificação das redes variaram de 0,80 a 0,99. A frequência com que foram encontrados valores de NS menores que 0.90 nos preenchimentos dos pluviógrafos foi baixa, da ordem de 3,6%. Na aplicação do modelo SWAT, a calibração e a verificação dos parâmetros do modelo foram realizadas com o uso das 16 séries horárias preenchidas com as RNAs. Resultados demonstraram que o coeficiente de eficiência de NS diminui à medida que quantidade de estações pluviométricas utilizadas na entrada do modelo são reduzidas, de 16 para 8, de 8 para 4, de 4 para 2 e de 2 para 1. Variaram de NS = 0,86 (com 16 pluviógrafos) a NS = 0,75 (com dois e um pluviógrafos). Ao se utilizar os dados sem preenchimento o modelo obteve um desempenho inferior, alcançando um coeficiente de NS 6 igual a 0,69. Com relação ao último cenário, em que os dados horários preenchidos foram acumulados e convertidos em diários para serem inseridos no modelo, os resultados foram os piores obtidos, o NS se igualou a 0,61. Nota-se que o preenchimento das falhas das precipitações horárias proporcionou a maximização dos dados disponíveis, com representação das variabilidades espaciais e, a realização de simulações para intervalos de tempo compatíveis com o tempo de resposta da bacia. / The availability of continuous rainfall series can enable the execution of many studies that are not possible with failed series, because many hydrological models do not provide good results when used input data with missing values. In this study, the capabilities of Artificial Neural Networks (ANN) were analyzed to estimate missing data rainfall stations. The aim of this study was to test the use of filled rainfall series as an hourly scale, as of artificial neural networks as input to a hydrological model physical basis, with distributed parameters. The hypothesis in this study is that the filling of historic precipitation series faults with the Artificial Neural Networks maximizes its use in studies and hydrological modeling. The methodology has been proposed a method for gap filling of the historical data of hourly rainfall monitored in eighteen rain gauges. Subsequently the completed precipitation data were applied in a flow forecasting model (SWAT). Seven situations were simulated to verify the efficiency of the SWAT model, a scenario with input time of 16 rain gauges with gap filling using RNAs, subsequently the input series were being reduced to 8 stations, 4, 2 and finally 1 rain gauges data filled. Was also simulated a scenario in which were used as input hourly data series of 16 unfilled posts, and a scenario with daily data entry was also simulated, where the hourly data filled of 16 stations were converted to daily data. 1784 models were constructed to fill gaps in the hourly data series of rain gauges in the basin. The gaps filling in hourly precipitation showed high efficiency coefficients of models. In general, coefficient of Nash-Sutcliffe (NS) values found during the training and verification networks ranged from 0.80 to 0.99. The frequency with which NS values smaller than 0.90 were found in the fill of the rain gauge was 3.6%. Based on the rainfall filled series, these were tested for their efficiency in the hydrologic simulation process, using the physically based SWAT model. The calibration and verification of the model parameters were performed using 16 pluviograph stations with hourly series filled with RNAs. Results showed that the efficiency coefficients of NS decreases as the amount of rainfall stations used in the input model are reduced from 16 to 8, from 8 to 4, 4 to 2 and 2 to 1. Ranged from NS = 086 (16 pluviographs) NS = 0.75 (with two one pluviographs). When using the not filling data, the model obtained a lower performance, achieving a 8 coefficient NS equal to 0.69. On respect to the latter scenario, in which hourly data were accumulated and converted filled in daily to be inserted in the model, the worst results were obtained, the NS equaled 0.61. It is noticed in this way, that the filling gaps of hourly rainfall provided the maximization of available data, with representation of spatial variability and, performing simulations to intervals compatible with the response time of the basin.
159

Análise de componentes principais integrada a redes neurais artificiais para predição de matéria orgânica

Morais, Jácina Tábita Gurgel 06 1900 (has links)
Submitted by LIVIA FREITAS (livia.freitas@ufba.br) on 2016-01-29T20:19:05Z No. of bitstreams: 1 Dissertacao Tabita.pdf: 3357943 bytes, checksum: 68725b213c233a37937a1617b70da4b2 (MD5) / Approved for entry into archive by LIVIA FREITAS (livia.freitas@ufba.br) on 2016-03-03T18:30:25Z (GMT) No. of bitstreams: 1 Dissertacao Tabita.pdf: 3357943 bytes, checksum: 68725b213c233a37937a1617b70da4b2 (MD5) / Made available in DSpace on 2016-03-03T18:30:25Z (GMT). No. of bitstreams: 1 Dissertacao Tabita.pdf: 3357943 bytes, checksum: 68725b213c233a37937a1617b70da4b2 (MD5) / Diversas técnicas avançadas vêm sendo adotada em plantas de tratamento de efluentes industriais com o propósito de melhorar o monitoramento e controle operacional da planta a fim de garantir a qualidade do efluente tratado antes de descartá-lo. Dentre estas técnicas, as redes neurais artificiais (RNAs) têm sido utilizadas com sucesso na modelagem destes sistemas. Entretanto, um passo importante e fundamental para um desempenho satisfatório das RNAs é o pré-processamento de dados. Esta tarefa requer uma análise cuidadosa dos dados a fim de obter-se um conjunto de variáveis e dados que melhor represente o sistema. O objetivo desta pesquisa consiste em construir modelos de predição da quantidade de matéria orgânica, medida por DQO, de uma lagoa aerada de uma empresa de produção de papel e celulose, e comparar o desempenho dos modelos construídos quando utilizada a técnica de análise de componentes principais (PCA) para pré-processamento dos dados. PCA foi utilizada nesta pesquisa para reduzir dimensionalmente o conjunto de dados através da seleção de componentes principais, descarte de variáveis originais e exclusão de possíveis outliers. Cinco conjuntos de dados foram formados para comparar o desempenho das RNAs com e sem aplicação de PCA, além do uso da DQO como unidade de concentração (mg de DQO.L-1) e como carga orgânica (kg de DQO.dia-1). Esse desempenho foi avaliado pelo erro quadrático médio (EQM), índice de correlação (R²), índice de correlação ajustado (R²ajustado) e a complexidade da rede (Cn). A verificação da adequação do modelo é feita através da análise residual. A PCA foi capaz de facilitar o processo de aprendizagem da rede neural e reduzir os custos operacionais pelo descarte de variáveis originais. A DQO como carga orgânica também ajudou a melhorar o desempenho da rede PCA-RNA.
160

Rede Neural Probabilística para a Classificação de Atividades Econômicas

CIARELLI, P. M. 22 February 2008 (has links)
Made available in DSpace on 2016-08-29T15:32:27Z (GMT). No. of bitstreams: 1 tese_2374_DissCiarelli.pdf: 657695 bytes, checksum: 2e3f00e12cb68ef17232b66f664a2f00 (MD5) Previous issue date: 2008-02-22 / Este trabalho apresenta uma abordagem baseada em Redes Neurais Artificiais para problemas de classificação multi-rotulada. Em particular, foi empregada uma versão modificada da Rede Neural Probabilística para tratar de tais problemas. Em experimentos realizados em várias bases de dados conhecidas na literatura, a Rede Neural Probabilística proposta apresentou um desempenho comparável, e algumas vezes até superior, a outros algoritmos especializados neste tipo de problema. Como o foco principal deste trabalho foi o estudo de estratégias para classificação automática de texto de atividades econômicas, foram realizados também experimentos utilizando uma base de dados de atividades econômicas. No entanto, diferente das bases de dados utilizadas anteriormente, esta base de dados apresenta um número extenso de categorias e poucas amostras de treino por categoria, o que aumenta o grau de dificuldade deste problema. Nos experimentos realizados foram utilizados a Rede Neural Probabilística proposta, o classificador k-Vizinhos mais Próximos Multi-rotulado, e um Algoritmo Genético para otimização dos parâmetros dos mesmos. Nas métricas utilizadas para avaliação de desempenho, a Rede Neural Probabilística mostrou resultados superiores e comparáveis aos resultados obtidos pelo k-Vizinhos mais Próximos Multi-rotulado, mostrando que a abordagem utilizada neste trabalho é promissora.

Page generated in 0.0575 seconds