• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 844
  • 42
  • 35
  • 35
  • 35
  • 26
  • 20
  • 20
  • 19
  • 11
  • 9
  • 2
  • Tagged with
  • 882
  • 882
  • 882
  • 316
  • 262
  • 228
  • 188
  • 184
  • 144
  • 121
  • 110
  • 108
  • 96
  • 92
  • 91
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
351

Métodos Box-Jenkins e neuro-nebuloso afins aplicados à previsão de séries temporais / Aline Purcote ; orientador, Leandro dos Santos Coelho

Purcote, Aline January 2009 (has links)
Dissertação (mestrado) - Pontifícia Universidade Católica do Paraná, Curitiba, 2009 / Bibliografia: f. 94-97 / O planejamento e abordagens de apoio à tomada de decisão podem ter a previsão como um dos seus subsídios, uma vez que fornece informações que possibilitam o planejamento com antecedência e, conseqüentemente, permite que os recursos produtivos estejam disp / The planning and approaches to support decision-making can be forecasting as one of its subsidies, as it provides information that enable the planning in advance and hence allows productive resources that are available in quantity, time and quality. Assis
352

Comparação entre os modelos holt-winters e redes neurais para previsão de séries temporais financeiras / Heitor André Kirsten ; orientador, Leandro dos Santos Coelho

Kirsten, Heitor André January 2009 (has links)
Dissertação (mestrado) - Pontifícia Universidade Católica do Paraná, Curitiba, 2009 / Bibliografia: f. 80-87 / A previsão de séries temporais é um problema que tem recebido especial atenção dos pesquisadores nos últimos anos. Prever o futuro, e em especial o comportamento de séries temporais, é fundamental em análises e apoio à tomada de decisões, e continua sendo / The time series forecasting is a problem that has received special attention from researchers in recent years. Predict the future, and in particular the behavior of time series, is essential to analyze and support decision making, and remains a challenge
353

Reconhecimento de símbolos elétricos / Walter Tonon Júnior ; orientador, Flávio Bortolozzi ; co-orientador, Cinthia O. de A. Freitas

Tonon Júnior, Walter January 2004 (has links)
Dissertação (mestrado) - Pontifícia Universidade Católica do Paraná, Curitiba, 2004 / Inclui bibliografias / Este trabalho aborda o reconhecimento de símbolos em engenharia elétrica manualmente segmentados, (dentro das normas da ABNT), através de métodos estatísticos utilizando-se transformadas numéricas (ou momentos matemáticos) e uma rede neural hierárquica. O / This work deal with the recognition of symbols segmented in electric engineering, (according to Brazilian Standards), through statistical methods using mathematical moments (or transforms) and by the use of a hierarchical Neural Net (NN). The symbols were
354

Aplicação de redes neurais para previsão de contrato de dólar futuro no mercado brasileiro

Piccoli, Daniel Madaschi 10 February 2014 (has links)
Submitted by Daniel Piccoli (piccoli@gmail.com) on 2014-02-26T02:20:15Z No. of bitstreams: 1 Dissertação - Daniel Piccoli.pdf: 884407 bytes, checksum: 7a147511454c1a47f8222876c295f71a (MD5) / Rejected by Suzinei Teles Garcia Garcia (suzinei.garcia@fgv.br), reason: Prezado Daniel, Não consta nenhuma alteração do título no verso da ATA, qualquer alteração é necessário o orientador vir a secretaria relatar. Título anterior:APLICAÇÃO DE REDES NEURAIS PARA PREVISÃO DE CONTRATO DE DÓLAR FUTURO NO MERCADO BRASILEIRO Att. Suzi 3799-7876 on 2014-02-26T17:55:25Z (GMT) / Submitted by Daniel Piccoli (piccoli@gmail.com) on 2014-02-26T23:07:56Z No. of bitstreams: 1 Dissertação - Daniel Piccoli.pdf: 884455 bytes, checksum: ca8ef3a3ba14323ef6f71f4e89ba42ea (MD5) / Approved for entry into archive by Suzinei Teles Garcia Garcia (suzinei.garcia@fgv.br) on 2014-02-27T11:52:28Z (GMT) No. of bitstreams: 1 Dissertação - Daniel Piccoli.pdf: 884455 bytes, checksum: ca8ef3a3ba14323ef6f71f4e89ba42ea (MD5) / Made available in DSpace on 2014-02-27T12:32:34Z (GMT). No. of bitstreams: 1 Dissertação - Daniel Piccoli.pdf: 884455 bytes, checksum: ca8ef3a3ba14323ef6f71f4e89ba42ea (MD5) Previous issue date: 2014-02-10 / The objective of this work is to develop a neural network to predict the movement of the 1-month BRL/USD future contract and to develop trading strategies for futures and options, thus providing a tool for estimating the movement of exchange rates and trading strategies based on these assets. This tool can help companies that need to hedge assets and liabilities as well as market players who need to increase performance of their portfolios. In this work, we use as input market data available on Bloomberg from January 2001 to September 2013 and for the calculation of the financial results of the strategies we use reference prices provided by BM&F. The best neural network obtained has an accuracy rate slightly above 70%, the financial result of strategies outperforms the usual market benchmark, the CDI. The options strategy presented a better result than the future strategy, both for the period of 2013 and for the whole period considered, generating a return of 884% versus 573% in the period from September 2005 to September 2013, with the CDI in this period yielding 132%. From January to September 2013, the options strategy also outperformed the future strategy, yielding 31% versus 24% whereas the CDI yielded 6% in the same period. / Este trabalho tem por objetivo a construção de uma rede neural para previsão do movimento dos contratos de dólar futuro e a construção de estratégias de negociação, para prover uma ferramenta para estimar o movimento do câmbio e para a negociação desses ativos. Essa ferramenta pode auxiliar empresas que necessitam fazer hedge de ativos e passivos e players do mercado que necessitam rentabilizar carteiras. Neste trabalho utilizamos como input dados de ativos do mercado financeiro, de janeiro de 2001 até setembro de 2013, disponíveis via terminal Bloomberg. Para o cálculo dos resultados financeiros das estratégias utilizamos dados de preços referenciais disponibilizados pela BM&F.
355

Aplicação de redes neurais na precificação de debêntures

Curi, Leonardo Zago 07 February 2008 (has links)
Made available in DSpace on 2010-04-20T21:00:06Z (GMT). No. of bitstreams: 3 leonardozago.pdf.jpg: 15861 bytes, checksum: c8779d38fde5b427b0a2bb1776baec3d (MD5) leonardozago.pdf.txt: 73279 bytes, checksum: b941e1925fefbef1bd86777bd72dccd5 (MD5) leonardozago.pdf: 383709 bytes, checksum: a91da81e0abe11c9497e8a77266f42fa (MD5) Previous issue date: 2008-02-07T00:00:00Z / Previous studies on pricing of Corporate Bonds have shown that prices for these securities in Brazil cannot be explained only by credit risk, but also by other factors, such as liquidity risk. On the other hand, other studies also have shown that neural networks models have been more successful than traditional models in explaining issues related to corporate bonds, such as modeling default probabilities and ratings from agencies such as Standard & Poors and Moodys. The purpose of this study is to test neural networks technique in pricing corporate bonds in Brasil and compare the results obtained with the ones obtained through linear regressions. To accomplish this, accounting variables and specific features of a bond such as time to maturity and calllable features were used as independent variables. Regarding dependent variables, ANDIMA’s daily rates were used as a reference for market value for corporate bonds. The variables described above were tested in several models through ordinary least squares and the model which presented the best result was also tested in neural networks with two hidden layers. The neural networks with six and eight neurons presented better results than models estimated through pooling and ordinary least squares both in the training stage as in the testing one. Nonetheless, there’s still much room for improvement in the models considering the size of the database available is still small and the rates published by ANDIMA are averages of a small group of financial institutions and may not reflect the true market value of a corporate bond. / Estudos anteriores mostraram que a técnica de redes neurais tem sido mais bem sucedida que os modelos tradicionais em vários assuntos relacionados ao mercado de debêntures, tais como modelar a probabilidade de default e em explicar os ratings de agências classificadoras de risco, como Standard & Poors e Moodys. O objetivo deste trabalho é testar a técnica de redes neurais para precificar debêntures no Brasil e comparar os resultados obtidos com regressões lineares. Para isso, utilizaram-se como variáveis explicativas dados contábeis, características específicas das emissões, tais como prazo para vencimento e cláusulas de recompra antecipada. Em relação às variáveis dependentes, optou-se por utilizar as taxas divulgadas diariamente pela ANDIMA como valor de mercado para as debêntures. As variáveis acima foram testadas em diversos modelos pelo método dos mínimos quadrados ordinários e o modelo que apresentou o melhor resultado foi testado em redes neurais com duas camadas intermediárias. Os resultados obtidos com redes neurais com seis e oito neurônios apresentaram resultados superiores aos modelos estimados por mínimos quadrados ordinários tanto na fase de treinamento como na fase de testes. No entanto, ainda há bastante espaço para melhorias nos modelos dado que o tamanho da base de dados disponível para este tipo de testes no Brasil ainda não é a ideal e as taxas divulgadas pela ANDIMA são médias de um grupo pequeno de instituições e não necessariamente refletem o valor de mercado de uma debênture.
356

Aplicação de redes neurais na classificação de rentabilidade futura de empresas

Matsumoto, Élia Yathie 26 November 2008 (has links)
Made available in DSpace on 2010-04-20T21:00:14Z (GMT). No. of bitstreams: 4 Elia Yathie Matsumoto.pdf.jpg: 16516 bytes, checksum: 1f792f6554f0125579232d44e7b24a73 (MD5) Elia Yathie Matsumoto.pdf.txt: 69098 bytes, checksum: 7770b468bc940ff80fce829a39e9c3ef (MD5) Elia Yathie Matsumoto.pdf: 484683 bytes, checksum: 2268d20eab93b50c0616502c15d727ee (MD5) license.txt: 4886 bytes, checksum: 9153e47b5c207ec70471b7858e3f91c7 (MD5) Previous issue date: 2008-11-26T00:00:00Z / The motivation of this work is to verify the efficiency of neural networks as a tool for classifying forecasts of companies’ return on equity, so that they can be used in order to provide support for the development of investment decision support systems. The results obtained by the proposed neural networks mode are compared to those obtained by the use of the classic multiple linear regression as a minimum reference and, as a benchmark, to those obtained via ordinal logistic multiple regression. In this work, we gathered top 1000 companies’ financial and accounting data, annually listed by Melhores e Maiores – Exame publication (Editora Abril), from 1996 to 2006. The three models were built using data relative to the period between 1996 and 2004. Using the 2005 data as input in order to forecast companies’ classification in 2006, the three models’ outputs were compared to the observed 2006 classification, and the neural network model yielded the best results. / Este trabalho tem por motivação evidenciar a eficiência de redes neurais na classificação de rentabilidade futura de empresas, e desta forma, prover suporte para o desenvolvimento de sistemas de apoio a tomada de decisão de investimentos. Para serem comparados com o modelo de redes neurais, foram escolhidos o modelo clássico de regressão linear múltipla, como referência mínima, e o de regressão logística ordenada, como marca comparativa de desempenho (benchmark). Neste texto, extraímos dados financeiros e contábeis das 1000 melhores empresas listadas, anualmente, entre 1996 e 2006, na publicação Melhores e Maiores – Exame (Editora Abril). Os três modelos foram construídos tendo como base as informações das empresas entre 1996 e 2005. Dadas as informações de 2005 para estimar a classificação das empresas em 2006, os resultados dos três modelos foram comparados com as classificações observadas em 2006, e o modelo de redes neurais gerou o melhor resultado.
357

Seleção de caracteres complexos em alfafa por meio de inteligência computacional / Complex traits selection in alfalfa by means of computational intelligence

Santos, Iara Gonçalves dos 18 July 2017 (has links)
Submitted by Reginaldo Soares de Freitas (reginaldo.freitas@ufv.br) on 2018-01-16T11:32:00Z No. of bitstreams: 1 texto completo.pdf: 1247418 bytes, checksum: e985fa1f1156f534c1dbec006984c2de (MD5) / Made available in DSpace on 2018-01-16T11:32:00Z (GMT). No. of bitstreams: 1 texto completo.pdf: 1247418 bytes, checksum: e985fa1f1156f534c1dbec006984c2de (MD5) Previous issue date: 2017-07-18 / Conselho Nacional de Desenvolvimento Científico e Tecnológico / O desenvolvimento de novos cultivares de alfafa está relacionado, além do potencial produtivo, com o valor nutritivo da forragem, ambos determinados por uma série de caracteres de controle genético complexo. Por isso, o melhoramento da cultura exige adoção de técnicas que maximizem a acurácia seletiva. Nesse contexto, a utilização das Redes Neurais Artificiais (RNAs) pode ser útil para otimizar a seleção simultânea de caracteres, que tem sido a estratégia mais utilizada no melhoramento da alfafa. Assim, o objetivo deste trabalho foi aplicar a abordagem de índices de seleção no contexto das redes neurais artificiais para auxiliar o melhoramento da cultura da alfafa, além de avaliar a eficiência das redes para realizar a seleção de caracteres complexos. Para isso, foram utilizados dados de 77 genótipos de alfafa avaliados em quatro cortes realizados ao longo das diferentes estações no ano, mensurados quanto a caracteres de produção e valor nutritivo. Primeiramente, foram estimados os ganhos por seleção direta, indireta e simultânea pelo índice de Taí para cada um dos grupos de caracteres. Para obtenção das redes para cada grupo, os genótipos foram subdivididos em classes segundo os escores do índice. A fim de garantir boa capacidade de generalização das redes, nas etapas de treinamento e validação foram utilizados dados ampliados de cada grupo de caracteres e, só então, as redes foram utilizadas para classificar os dados reais dos quatro cortes. Posteriormente, utilizou- se dados ampliados de três cortes para treinamento e validação e a rede, então estabelecida, foi empregada em dados reais, relativos a um dos cortes que não participou do processo de ampliação. De modo geral, as seleções diretas proporcionaram ganhos per se satisfatórios para os propósitos do melhoramento, mas sua utilização deve ser bastante criteriosa tendo em vista a existência de correlações desfavoráveis entre alguns caracteres estudados. Já as seleções indiretas apresentaram dificuldades para manter ganhos desejados em todos os caracteres no conjunto de genótipos. Os resultados da seleção simultânea utilizando o índice de Taí proporcionaram distribuição de ganhos mais equilibrada para os conjuntos de caracteres em todos os cortes. No contexto das redes neurais artificiais, as taxas de erros das redes de produção e valor nutritivo foram baixas, evidenciando a grande concordância destas com o índice. Entretanto, a limitação do conjunto de treinamento e teste das RNAs para ampliação de três cortes, levou tanto a altas taxas de erro ou a níveis muito baixos, indicativo de perda da habilidade de generalização. Quando se utilizou as redes no novo corte, as taxas de erro foram altas em todos os cenários. O baixo desempenho obtido pode ser explicado pela discrepância observada entre o conjunto de treinamento e o conjunto de teste. Dessa forma, percebe-se a importância da qualidade do conjunto de dados para treinamento de uma rede eficiente, pois a utilização desta é diretamente relacionada com a disponibilidade de bons exemplos e em grande número. O uso das RNAs será mais difundido à medida que haja mudança no paradigma da experimentação em que as decisões passarão a ser tomadas em bancos de dados, construídos ao longo do tempo de um programa de melhoramento, que constituirão de base para o processamento de dados. / Developing new alfalfa cultivars is related with productive potential besides to the nutritive value of the forage, which are determined by traits of complex genetic control. That is why alfalfa breeding requires adoption of techniques that maximize selective accuracy. In this context, using Artificial Neural Networks (ANNs) can be useful to optimize the simultaneous selection, which has been the strategy most used in alfalfa breeding. Thus, the aim of this work was to apply the selection index approach in the context of artificial neural networks to help in alfalfa breeding, as well as to evaluate the efficiency of the ANNs to perform the complex trait selection. The data from 77 alfalfa genotypes evaluated in four cuts were collected considering different seasons in the year. In each cut were measured production and nutritive value traits. Firstly, we estimated the gains by direct, indirect and simultaneous selection by the Taí index for each trait groups. To obtain the ANN for each group, the genotypes were subdivided into classes according to the index scores. In order to ensure good network generalization, in the training and validation stages we used amplificated data from each group of characters, later we used the ANNs to classify the real data of the four cuts. Subsequently, we used amplificated data from three cuts for training and validation, and the established ANNs were used in a new cut that did not participate in the amplification process. In general, the direct selections provided satisfactory individual gains for the breeding purposes, but their use must be very judicious since the existence of unfavorable correlations between some studied traits. Indirect selections, presented difficulties in maintaining desired gains in all traits in the genotype set. The results of simultaneous selection using the Taí index provided a more balanced distribution gains for the trait sets in all cuts. In the context of the artificial neural networks, the error rates of the production and nutritional value groups were low, evidencing the great agreement of these with the index. However, the limitation of the training set and test of ANNs for data of three cut amplification, led either to high error rates or to very low levels, indicating of loss of the generalization ability. When the networks were used in the new cut, error rates were high in all scenarios. The low performance obtained can be explained by the discrepancy between the training set and the test one. In this way, the importance of the quality of data set for training an efficient network is perceived, since its use is directly related to the availability of good examples and in large numbers. The use of ANNs will be more widespread with a change in the experimentation paradigm in which decisions will be made into databases built over time from a breeding program that will form the basis for data processing.
358

Assessment of genome-wide prediction by using Bayesian regularized neural networks / Avaliação de predições genômicas utilizando redes neurais com regularização Bayesiana

Glória, Leonardo Siqueira 25 May 2015 (has links)
Submitted by Amauri Alves (amauri.alves@ufv.br) on 2015-12-02T16:52:21Z No. of bitstreams: 1 texto completo.pdf: 4119749 bytes, checksum: abab366057d5b5d02a6202d32f277b7c (MD5) / Made available in DSpace on 2015-12-02T16:52:21Z (GMT). No. of bitstreams: 1 texto completo.pdf: 4119749 bytes, checksum: abab366057d5b5d02a6202d32f277b7c (MD5) Previous issue date: 2015-05-25 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Recentemente, há um aumento de interesse na utilização de métodos não paramétricos, tais como redes neurais artificiais (RNA), na área de seleção genômica ampla (SGA). Uma classe especial de RNA é aquela com regularização Bayesiana, a qual não exige um conhecimento a priori da arquitetura genética da característica, tais como outros métodos tradicionais de SGA (RR-BLUP, Bayes A, B, Cπ, BLASSO). O objetivo do presente estudo foi aplicar a RNA baseado em regularização Bayesiana na predição de valores genéticos genômicos utilizando conjuntos de dados simulados a fim de selecionar os marcadores SNP mais relevantes por meio de dois métodos diferentes. Objetivou-se ainda estimar herdabilidades para as características consideradas e comparar os resultados da RNA com dois métodos tradicionais (RR-BLUP e Lasso Bayesiano). A arquitetura mais simples da rede neural com regularização Bayesiana obteve os melhores resultados para as duas características avaliadas, os quais foram muito similares às metodologias tradicionais RR-BLUP e Lasso Bayesiano (BLASSO). A identificação de importância dos SNPs baseada nas RNA apresentaram correlações entre os efeitos verdadeiros e simulados de 0,61 e 0,81 para as características 1 e 2, respectivamente. Estas foram maiores do que aquelas produzidas pelo método tradicional BLASSO (0,55 e 0,71, para característica 1 e 2 respectivamente). Em relação a herdabilidade (assumindo o valor verdadeiro igual a 0,35), a RNA mais simples obteve valor de herdabilidade igual a 0,33, enquanto os métodos tradicionais a subestimaram (com média igual igual a 0,215). / Recently there is an increase interest to use nonparametric methods, such as artificial neural networks (ANN). In animal breeding, an especial class of ANN called Bayesian Regularized Neural Network (BRNN) has been preferable since it not demands a priori knowledge of the genetic architecture of the characteristic as assumed by the most used parametric methods (RR-BLUP, Bayes A, B, Cπ, BLASSO). Although BRNN has been shown to be effective for genomic enable prediction. The aim of the present study was to apply the ANN based on Bayesian regularization to genome-enable prediction regarding simulated data sets, to select the most relevant SNP markers by using two proposed methods, to estimate heritabilities for the considered traits, and to compare the results with two traditional methods (RR-BLUP and BLASSO). The simplest Bayesian Regularized Neural Network (BRNN) model gave consistent predictions for both traits, which were similar to the results obtained from the traditional RR-BLUP and BLASSO methods. The SNP importance identification methods based on BRNN proposed here showed correlation values (0.61 and 0.81 for traits 1 and 2, respectively) between true and estimated marker effects higher than the traditional BLASSO (0.55 and 0.71, respectively for traits 1 and 2) method. With respect to h 2 estimates (assuming 0.35 as true value), the simplest BRNN recovered 0.33 for both traits, thus outperforming the RR-BLUP and BLASSO, that, in average, estimated h 2 equal to 0.215.
359

Melhoria da Sensibilidade em dados de proteômica Shotgun usando redes neurais artificiais sensíveis ao custo e o algoritmo threshold selector / Improving sensitivity in shotgun proteomics using cost sensitive artificial neural networks and a threshold selector algorithm

Ricardo, Adilson Mendes 07 December 2015 (has links)
Submitted by Marco Antônio de Ramos Chagas (mchagas@ufv.br) on 2016-02-16T08:33:17Z No. of bitstreams: 1 texto completo.pdf: 4266396 bytes, checksum: 856cd30ea465e06e8c9ff8dc295ffd91 (MD5) / Made available in DSpace on 2016-02-16T08:33:17Z (GMT). No. of bitstreams: 1 texto completo.pdf: 4266396 bytes, checksum: 856cd30ea465e06e8c9ff8dc295ffd91 (MD5) Previous issue date: 2015-12-07 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Antecedentes: Este trabalho apresenta uma estratégia de aprendizagem de máquina para aumentar sensibilidade na análise de dados de espectrometria de massa para identificação de peptídeos / proteínas. A espectrometria de massa em tandem é uma técnica de química analítica amplamente utilizada para identificar as proteínas em misturas complexas, dando origem a milhares de espectros em uma única corrida que são depois interpretados por software. A maioria destas abordagens computacionais usam bancos de dados de proteínas para realizar a interpretação dos espectros, ou seja, para cada um, obter a melhor correspondência entre o mesmo e a sequência de um peptídeo obtido computacionalmente, a partir das sequências de proteínas do banco de dados. As correspondências espectro-peptídeo (PSM - peptide-spectrum matches) também devem ser avaliadas por ferramentas computacionais já que a análise manual não é possível em função do volume. A estratégia do banco de dados target-decoy é largamente utilizada para avaliação de PSMs. No entanto, em geral, o método não considera a sensibilidade, apenas a estimativa de erro. Resultados: Em trabalho de pesquisa anterior, o método MUMAL aplica uma rede neural artificial para gerar um modelo para classificar PSMs usando a estratégia do banco de dados target-decoy para o aumento da sensibilidade. Entretanto, o presente trabalho de pesquisa mostra que a sensibilidade pode ser melhorada com a utilização de uma matriz de custo associada com o algoritmo de aprendizagem. Demonstra-se também que a utilização do algoritmo threshold selector para o ajuste de probabilidades conduz a valores mais coerentes de probabilidade atribuídos para os PSMs, o que afeta positivamente a etapa de inferência de proteínas. Portanto, a abordagem aqui proposta, denominada MUMAL2, fornece duas contribuições para proteômica shotgun. Em primeiro lugar, o aumento no número de espectros corretamente interpretados no nível de peptídeo aumenta a chance de identificar mais proteínas. Em segundo lugar, os valores mais adequados de pro- babilidade dos PSMs produzidos pelo algoritmo threshold selector impactam de forma positiva a fase de inferência de proteínas, realizada por programas que levam em conta estas probabilidades, tais como o ProteinProphet. Os experimentos demonstraram que o MUMAL2 fornece um maior número de verdadeiros positivos em comparação com métodos convencionais para avaliação de PSMs. Esta nova abordagem atingiu cerca de 15% de melhoria na sensibilidade em comparação com o melhor método atual. Além disso, a área sob a curva ROC obtida foi de 0,93, o que demonstra que as probabi- lidades geradas pelo MUMAL2 são, de fato, apropriadas. Finalmente, diagramas de Venn comparando o MUMAL2 com o melhor método atual mostram que o número de peptídeos exclusivos encontrado pelo MUMAL2 foi quase quatro vezes superior, o que impacta diretamente a cobertura do proteoma. Conclusões: A inclusão de uma matriz de custos e do algoritmo threshold selector na tarefa de aprendizagem melhora, ainda mais, a análise pela estratégia banco de dados target-decoy para identificação dos peptídeos, e contribui de forma eficaz para a difícil tarefa de identificação no nível de proteínas, resultando em uma poderosa ferramenta computacional para a proteômica shotgun. / Background: This work presents a machine learning strategy to increase sensitivity in mass spectrometry data analysis for peptide/protein identification. Tandem mass spectrometry is a widely used analytical chemistry technique used to identify proteins in complex mixtures, yielding thousands of spectra in a single run which are then inter- preted by software. Most of these computer programs use a protein database to match peptide sequences to the observed spectra. The peptide-spectrum matches (PSMs) must also be assessed by computational tools since manual evaluation is not practica- ble. The target-decoy database strategy is largely used for PSM assessment. However, in general, the method does not account for sensitivity, only for error estimate. Re- sults: In a previous study, we proposed the method MUMAL that applies an artificial neural network to effectively generate a model to classify PSMs using decoy hits with increased sensitivity. Nevertheless, the present approach shows that the sensitivity can be further improved with the use of a cost matrix associated with the learning algo- rithm. We also demonstrate that using a threshold selector algorithm for probability adjustment leads to more coherent probability values assigned to the PSMs. Our new approach, termed MUMAL2, provides a two-fold contribution to shotgun proteomics. First, the increase in the number of correctly interpreted spectra in the peptide level augments the chance of identifying more proteins. Second, the more appropriate PSM probability values that are produced by the threshold selector algorithm impact the protein inference stage performed by programs that take probabilities into account, such as ProteinProphet. Our experiments demonstrated that MUMAL2 provides a higher number of true positives compared with standard methods for PSM evaluation. This new approach reached around 15% of improvement in sensitivity compared to the best current method. Furthermore, the area under the ROC curve obtained was 0.93, demonstrating that the probabilities generated by our model are in fact appro- priate. Finally, Venn diagrams comparing MUMAL2 with the best current method show that the number of exclusive peptides found by our method was nearly 4-fold higher, which directly impacts the proteome coverage. Conclusions: The inclusion of a cost matrix and a probability threshold selector algorithm to the learning task further improves the target-decoy database analysis for identifying peptides, which optimally contributes to the challenging task of protein level identification, resulting in a powerful computational tool for shotgun proteomics.
360

Métodos estatísticos e sistema neuro-fuzzy aplicados na avaliação de impactos ambientais / Statistical methods and neuro-fuzzy system applied in the environmental impact assessment

Valdetaro, Erlon Barbosa 30 November 2015 (has links)
Submitted by Reginaldo Soares de Freitas (reginaldo.freitas@ufv.br) on 2016-03-29T16:36:01Z No. of bitstreams: 1 texto completo.pdf: 2456636 bytes, checksum: df07e232b8b9d18c7ed86236c88f4676 (MD5) / Made available in DSpace on 2016-03-29T16:36:01Z (GMT). No. of bitstreams: 1 texto completo.pdf: 2456636 bytes, checksum: df07e232b8b9d18c7ed86236c88f4676 (MD5) Previous issue date: 2015-11-30 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / O objetivo geral do trabalho foi avaliar a aplicabilidade do teste de qui-quadrado (χ2) e da lógica neuro-fuzzy na avaliação de impactos ambientais. Avaliou-se o uso dos métodos para reduzir a gama de dados de matrizes de interação e, assim, facilitar a exposição de seus resultados em audiências públicas e, também, calcular o grau de impacto a partir das características qualitativas do impacto ambiental. O estudo foi realizado com dados extraídos de matrizes de interação de avaliação quali-quantitativa de impactos ambientais de um programa de fomento florestal. O trabalho foi dividido em dois capítulos. No primeiro capítulo, por meio da estatística do qui-quadrado, foi investigado se a avaliação qualitativa das matrizes de interação exerce alguma influência nos resultados da avaliação quantitativa (grau de impacto) e também se os quadros de contingência, preparados para o teste, podem sintetizar as informações das matrizes de interação. Foi mostrado que existe uma associação entre as variáveis qualitativas e quantitativas e que os quadros de contingência são adequados para sintetizar os resultados das matrizes de interação de impactos ambientais, podendo ser utilizados em audiências públicas como forma de exposição dos resultados. No segundo capítulo foi avaliada a aplicabilidade de um sistema neuro-fuzzy para cálculo do grau de impacto ambiental a partir dos dados de avaliação qualitativa dos mesmos e, ainda, a capacidade dos gráficos de superfície, gerados pelo sistema, sintetizarem os resultados de matrizes de interação. Com os dados obtidos, foram criadas 87 regras e, após treinamento e teste, estimou-se 87 graus de impacto, um para cada regra, evidenciando que é possível a estimativa do grau de impacto por meio de sistema neuro-fuzzy. Os gráficos de superfície gerados pelo sistema se mostraram eficientes na síntese de resultados de matrizes de interação. Os dois métodos testados são capazes de reduzir a gama de dados de matrizes de interação e facilitam a exposição de resultados em audiências públicas. / The overall objective of this study was to evaluate the applicability of the chi- square test (χ2) and neuro-fuzzy logic in the evaluation of environmental impacts. Evaluated the use of methods to reduce the range of data interaction matrices and thus facilitate the display of results in public audiences and also calculate the degree impact from the qualitative characteristics of environmental impact. The study was conducted with data extracted from interaction matrices of qualitative and quantitative of the environmental impacts assessment of a forest development program. The work was divided into two chapters. In the first chapter, by statistical chi-square, was investigated whether the qualitative assessment of the interaction matrices have some effect on the results of quantitative assessment (degree impact) and also if tables of contingency, prepared for the test, can synthesize interaction matrices’ information. It was shown that there is an association between qualitative and quantitative variables and contingency tables are suitable to synthesize the interaction matrices’ results and can be used at public hearings as a way to exposure these results. The second chapter was evaluated the applicability of a neuro-fuzzy system to calculate the degree impact from the qualitative evaluation and also the ability of the surface charts, generated by the system, to synthesize the of interaction matrices’ results. With the data obtained, 87 rules have been created, and after training and testing, it was estimated 87degrees impact, one for each rule, showing that the estimate of degree impact by neuro-fuzzy system is possible. Surface charts generated by the system proved to be efficient in the synthesis of interaction matrices’ results. Both methods tested are able to reduce the range of interaction matrices’ data and facilitate exposure results in public hearings.

Page generated in 0.0521 seconds