• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 6
  • 2
  • 1
  • Tagged with
  • 9
  • 9
  • 9
  • 6
  • 6
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

A Hybrid Intelligent System for Stamping Process Planning in Progressive Die Design

Zhang, W.Y., Tor, Shu Beng, Britton, G.A. 01 1900 (has links)
This paper presents an intelligent, hybrid system for stamping process planning in progressive die design. The system combines the flexibility of blackboard architecture with case-based reasoning. The hybrid system has the advantage that it can use past knowledge and experience for case-based reasoning when it exists, and other reasoning approaches when it doesn’t exist. A prototype system has been implemented in CLIPS and interfaced with Solid Edge CAD system. An example is included to demonstrate the approach. / Singapore-MIT Alliance (SMA)
2

Sistema híbrido evolucionário baseado em decomposição para a previsão de séries temporais

OLIVEIRA, João Fausto Lorenzato de 26 September 2016 (has links)
Submitted by Fabio Sobreira Campos da Costa (fabio.sobreira@ufpe.br) on 2017-02-21T14:53:51Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) main_abntex.pdf: 4558296 bytes, checksum: 6f077e7cc7e54787fdfdb3b25b18eabb (MD5) / Made available in DSpace on 2017-02-21T14:53:51Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) main_abntex.pdf: 4558296 bytes, checksum: 6f077e7cc7e54787fdfdb3b25b18eabb (MD5) Previous issue date: 2016-09-26 / A previsão de séries temporais é uma tarefa importante no campo da aprendizado de máquina, possuindo diversas aplicações em mercado de ações, hidrologia, meteorologia, entre outros. A análise da dependência existente nas observações adjacentes da série é necessária para que seja possível prever valores futuros com alguma precisão. Modelos dinâmicos são utilizados para realizar mapeamentos de uma série temporal, se aproximando do mecanismo gerador da série e sendo capazes de realizar previsões. No entanto, o mecanismo gerador de uma série temporal pode produzir padrões lineares e não-lineares que precisam ser devidamente mapeados. Modelos lineares como o auto-regressivo integrado de média móvel (ARIMA) são capazes de mapear padrões lineares, porém não são indicados quando existem padrões não-lineares na série. Já os modelos não-lineares como as redes neurais artificais (RNA) mapeiam padrões não-lineares, mas podem apresentar desempenho reduzido na presença de padrões lineares em relação aos modelos lineares. Fatores como a definição do número de elementos de entrada da RNA, número de amostras de treinamento podem afetar o desempenho. Abordagens híbridas presentes na literatura realizam o mapeamento dos padrões lineares e não-lineares simultaneamente ou aplicando duas ou mais fases nas previsões. Seguindo a suposição de que os modelos são bem ajustados, a diferença entre o valor previsto e a série real demonstra um comportamento de ruído branco, ou seja, considera-se que a diferença entre os valores (resíduo) é composta por choques aleatórios não correlacionados. Na abordagem de duas ou mais fases, o resíduo gerado pelo modelo aplicado na primeira fase é utilizado pelo segundo modelo. O problema do ajuste pode ser decorrente dos parâmetros mal ajustados e também da série temporal devido à possível necessidade de transformações. Tais abordagens geram previsões mais precisas quando comparadas às técnicas tradicionais. Nesta tese, são explorados sistemas evolucionários para a otimização de parâmetros de técnicas lineares e não-lineares visando o mapeamento dos padrões da série temporal. A abordagem proposta utiliza um preprocessamento automático através de um filtro de suavização exponencial para extrair uma série com distribuição normal. A diferença da série temporal e a série filtrada é mapeada por um sistema composto por um método auto-regressivo (AR) e máquina de vetor de suporte para regressão (SVR). Variações do algoritmo de otimização por enxame de partículas (PSO) e algoritmos genéticos são aplicados na otimização dos hiper-parâmetros do sistema. A previsão final é realizada através da soma das previsões de cada série. Para fins de avaliação do método proposto, experimentos foram realizados com bases de problemas reais utilizando métodos da literatura. Os resultados demonstram que o método obteve previsões precisas na maioria dos casos testados. O filtro de suavização exponencial utilizado supõe que a série possua nível constante (sem tendência). Séries que possuem tendências lineares foram devidamente tratadas, no entanto tendências exponenciais ou polinomiais apresentaram desempenho reduzido. O método proposto possui potencial para melhorias, aplicando métodos que realizem o mapeamento automático de tendências como a suavização exponencial dupla. Nesta tese o método aditivo foi utilizado para combinação de previsões, no entanto em algumas séries o modelo multiplicativo pode ser mais adequado, produzindo previsões mais precisas. / Time series forecasting is an important task in the field of machine learning and has many applications in stock market, hydrology, weather and so on. The analysis of the dependence between adjacent observations in the series is necessary in order to achieve better forecasts. Dynamic models are used to perform mappings in the time series by approximating to thedata generating process and being able to perform predictions. However, the data generating process of a time series may produce both linear and nonlinear patterns that need to be mapped. Linear models such as the autoregressive integrated moving average (ARIMA) are able to map linear patterns, although not indicated when nonlinear patterns are present in the series. Nonlinear models such as the artificial neural networks (ANNs) perform nonlinear mappings but demonstrate reduced performance in the presence of linear patterns in comparison to linear models. Hybrid approaches in the literature perform mappings of linear and nonlinear patterns simultaneously or applying two or more phases.Supposing that the models are adjusted to the data, the difference between the predicted value and the data presents a White noise behavior, thus it is considered that the difference of values (residual) is composed by uncorrelated random shocks. In two-phase approaches the residual produced by the linear model in the first phase is used in the nonlinear model. Also the parameters of the models have an important influence on their performance. Such approaches produce more accurate predictions when compared with traditional methods. In this thesis, we explore evolutionary system in the context of optimization of parameters for both linear and nonlinear methods, taking into consideration the patterns in a time series. In the proposed approach, an exponential smoothing filter is used to decompose a series with normal distribution which is applied to an ARIMA model and the residual series is applied to a system composed by an autoregressive (AR) and a support vector regression methods (SVR). Variations of particle swarm optimization (PSO) algorithm and genetic algorithm (GA) are employed in the optimization of hyper-parameters of the system. Experiments were conducted using data sets from real world problems comparing with methods in the literature. The results indicate that the method achieved accurate predictions in most cases. The exponential smoothing filter assumes that the given series has no trend patterns. Series with linear trend were detrended, however in series with exponential or polynomial trends the proposed method achieved reduced performance. The proposed method has potential to improvements by using methods that perform an automatic mapping of trend patterns (double exponential smoothing). In this work, the additive model is adopted, however in some series a multiplicative model could achieve better forecasts.
3

HYBRID INTELLIGENT SYSTEMS FOR PATTERN RECOGNITION AND SIGNAL PROCESSING

YOUSSIF, ROSHDY S. 01 July 2004 (has links)
No description available.
4

Exploração de relações entre as técnicas nebulosas e evolutivas da inteligência computacional. / Exploration of relations between the fuzzy and the evolutionary techniques of computational intelligence.

Fialho, Álvaro Roberto Silvestre 12 April 2007 (has links)
Neste trabalho foi realizada uma busca por relações, regras e transformações entre duas metodologias constituintes da Inteligência Computacional - a Computação Nebulosa e a Computação Evolutiva. Com a organização e sistematização da existência de tais transformações, obtém-se uma mudança na modelagem de soluções que as utilizam de forma conjunta, possibilitando que teorias e modelos bem estabelecidos em uma das metodologias possam ser aproveitados pela outra de uma forma mais robusta, correta por construção, intrínseca e transparente. Um modelo foi proposto para direcionar o trabalho de pesquisa. Através da análise desse modelo e de uma revisão bibliográfica realizada, transformações pontuais entre as metodologias foram elencadas, e posteriormente consolidadas por meio de experimentos práticos: uma Base de Conhecimento (BC) de um Controlador Lógico Nebuloso foi criada e modificada, conforme a necessidade, através de um Algoritmo Genético (AG). Com a abordagem desenvolvida, além da criação de BCs a partir de pouquíssimo conhecimento sobre o domínio do problema, tornou-se possível a inserção de novos \"comportamentos desejados\" em BCs já existentes, automaticamente, através de AGs. Os resultados desses experimentos, realizados sobre uma plataforma computacional especificada e implementada para este fim, foram apresentados e analisados. / This work addressed a search of relations, rules and transformations between two Computational Intelligence constituent methodologies - Fuzzy Computing and Evolutionary Computing. The existence of these relations changes the actual way of solutions modeling that uses these methodologies, allowing the utilization of well established theories and models of one technique by the other in a more robust, intrinsic and transparent way. Besides the research and systematization of points that indicate the existence of relations between the two methodologies, a model to guide these exploration was proposed. By this model analysis and by the bibliographic revision made, punctual transformations were pointed out, and further consolidated through practical experiments: a Knowledge Base (KB) of a Fuzzy Logic Controller was created and modified automatically by a Genetic Algorithm. With the developed approach, besides the creation of KBs, it became possible to automatically insert new \"desired behaviors\" to existent KBs. The results of such experiments, realized through a computational platform specified and implemented to this task, were presented and analyzed.
5

Ajuste de taxas de mutação e de cruzamento de algoritmos genéticos utilizando-se inferências nebulosas. / Adjusments in genetic algorithms mutation and crossover rates using fuzzy inferences.

Burdelis, Mauricio Alexandre Parente 31 March 2009 (has links)
Neste trabalho foi realizada uma proposta de utilização de Sistemas de Inferência Nebulosos para controlar, em tempo de execução, parâmetros de Algoritmos Genéticos. Esta utilização busca melhorar o desempenho de Algoritmos Genéticos diminuindo, ao mesmo tempo: a média de iterações necessárias para que um Algoritmo Genético encontre o valor ótimo global procurado; bem como diminuindo o número de execuções do mesmo que não são capazes de encontrar o valor ótimo global procurado, nem mesmo para quantidades elevadas de iterações. Para isso, foram analisados os resultados de diversos experimentos com Algoritmos Genéticos, resolvendo instâncias dos problemas de Minimização de Funções e do Caixeiro Viajante, sob diferentes configurações de parâmetros. Com base nos resultados obtidos a partir destes experimentos, foi proposto um modelo com a troca de valores de parâmetros de Algoritmos Genéticos, em tempo de execução, pela utilização de Sistemas de Inferência Nebulosos, de forma a melhorar o desempenho do sistema, minimizando ambas as medidas citadas anteriormente. / This work addressed a proposal of the application of Fuzzy Systems to adjust parameters of Genetic Algorithms, during execution time. This application attempts to improve the performance of Genetic Algorithms by diminishing, at the same time: the average number of necessary generations for a Genetic Algorithm to find the desired global optimum value, as well as diminishing the number of executions of a Genetic Algorithm that are not capable of finding the desired global optimum value even for high numbers of generations. For that purpose, the results of many experiments with Genetic Algorithms were analyzed; addressing instances of the Function Minimization and the Travelling Salesman problems, under different parameter configurations. With the results obtained from these experiments, a model was proposed, for the exchange of parameter values of Genetic Algorithms, in execution time, by using Fuzzy Systems, in order to improve the performance of the system, minimizing both of the measures previously cited.
6

Ajuste de taxas de mutação e de cruzamento de algoritmos genéticos utilizando-se inferências nebulosas. / Adjusments in genetic algorithms mutation and crossover rates using fuzzy inferences.

Mauricio Alexandre Parente Burdelis 31 March 2009 (has links)
Neste trabalho foi realizada uma proposta de utilização de Sistemas de Inferência Nebulosos para controlar, em tempo de execução, parâmetros de Algoritmos Genéticos. Esta utilização busca melhorar o desempenho de Algoritmos Genéticos diminuindo, ao mesmo tempo: a média de iterações necessárias para que um Algoritmo Genético encontre o valor ótimo global procurado; bem como diminuindo o número de execuções do mesmo que não são capazes de encontrar o valor ótimo global procurado, nem mesmo para quantidades elevadas de iterações. Para isso, foram analisados os resultados de diversos experimentos com Algoritmos Genéticos, resolvendo instâncias dos problemas de Minimização de Funções e do Caixeiro Viajante, sob diferentes configurações de parâmetros. Com base nos resultados obtidos a partir destes experimentos, foi proposto um modelo com a troca de valores de parâmetros de Algoritmos Genéticos, em tempo de execução, pela utilização de Sistemas de Inferência Nebulosos, de forma a melhorar o desempenho do sistema, minimizando ambas as medidas citadas anteriormente. / This work addressed a proposal of the application of Fuzzy Systems to adjust parameters of Genetic Algorithms, during execution time. This application attempts to improve the performance of Genetic Algorithms by diminishing, at the same time: the average number of necessary generations for a Genetic Algorithm to find the desired global optimum value, as well as diminishing the number of executions of a Genetic Algorithm that are not capable of finding the desired global optimum value even for high numbers of generations. For that purpose, the results of many experiments with Genetic Algorithms were analyzed; addressing instances of the Function Minimization and the Travelling Salesman problems, under different parameter configurations. With the results obtained from these experiments, a model was proposed, for the exchange of parameter values of Genetic Algorithms, in execution time, by using Fuzzy Systems, in order to improve the performance of the system, minimizing both of the measures previously cited.
7

Exploração de relações entre as técnicas nebulosas e evolutivas da inteligência computacional. / Exploration of relations between the fuzzy and the evolutionary techniques of computational intelligence.

Álvaro Roberto Silvestre Fialho 12 April 2007 (has links)
Neste trabalho foi realizada uma busca por relações, regras e transformações entre duas metodologias constituintes da Inteligência Computacional - a Computação Nebulosa e a Computação Evolutiva. Com a organização e sistematização da existência de tais transformações, obtém-se uma mudança na modelagem de soluções que as utilizam de forma conjunta, possibilitando que teorias e modelos bem estabelecidos em uma das metodologias possam ser aproveitados pela outra de uma forma mais robusta, correta por construção, intrínseca e transparente. Um modelo foi proposto para direcionar o trabalho de pesquisa. Através da análise desse modelo e de uma revisão bibliográfica realizada, transformações pontuais entre as metodologias foram elencadas, e posteriormente consolidadas por meio de experimentos práticos: uma Base de Conhecimento (BC) de um Controlador Lógico Nebuloso foi criada e modificada, conforme a necessidade, através de um Algoritmo Genético (AG). Com a abordagem desenvolvida, além da criação de BCs a partir de pouquíssimo conhecimento sobre o domínio do problema, tornou-se possível a inserção de novos \"comportamentos desejados\" em BCs já existentes, automaticamente, através de AGs. Os resultados desses experimentos, realizados sobre uma plataforma computacional especificada e implementada para este fim, foram apresentados e analisados. / This work addressed a search of relations, rules and transformations between two Computational Intelligence constituent methodologies - Fuzzy Computing and Evolutionary Computing. The existence of these relations changes the actual way of solutions modeling that uses these methodologies, allowing the utilization of well established theories and models of one technique by the other in a more robust, intrinsic and transparent way. Besides the research and systematization of points that indicate the existence of relations between the two methodologies, a model to guide these exploration was proposed. By this model analysis and by the bibliographic revision made, punctual transformations were pointed out, and further consolidated through practical experiments: a Knowledge Base (KB) of a Fuzzy Logic Controller was created and modified automatically by a Genetic Algorithm. With the developed approach, besides the creation of KBs, it became possible to automatically insert new \"desired behaviors\" to existent KBs. The results of such experiments, realized through a computational platform specified and implemented to this task, were presented and analyzed.
8

Large Data Clustering And Classification Schemes For Data Mining

Babu, T Ravindra 12 1900 (has links)
Data Mining deals with extracting valid, novel, easily understood by humans, potentially useful and general abstractions from large data. A data is large when number of patterns, number of features per pattern or both are large. Largeness of data is characterized by its size which is beyond the capacity of main memory of a computer. Data Mining is an interdisciplinary field involving database systems, statistics, machine learning, visualization and computational aspects. The focus of data mining algorithms is scalability and efficiency. Large data clustering and classification is an important activity in Data Mining. The clustering algorithms are predominantly iterative requiring multiple scans of dataset, which is very expensive when data is stored on the disk. In the current work we propose different schemes that have both theoretical validity and practical utility in dealing with such a large data. The schemes broadly encompass data compaction, classification, prototype selection, use of domain knowledge and hybrid intelligent systems. The proposed approaches can be broadly classified as (a) compressing the data by some means in a non-lossy manner; cluster as well as classify the patterns in their compressed form directly through a novel algorithm, (b) compressing the data in a lossy fashion such that a very high degree of compression and abstraction is obtained in terms of 'distinct subsequences'; classify the data in such compressed form to improve the prediction accuracy, (c) with the help of incremental clustering, a lossy compression scheme and rough set approach, obtain simultaneous prototype and feature selection, (d) demonstrate that prototype selection and data-dependent techniques can reduce number of comparisons in multiclass classification scenario using SVMs, and (e) by making use of domain knowledge of the problem and data under consideration, we show that we obtaina very high classification accuracy with less number of iterations with AdaBoost. The schemes have pragmatic utility. The prototype selection algorithm is incremental, requiring a single dataset scan and has linear time and space requirements. We provide results obtained with a large, high dimensional handwritten(hw) digit data. The compression algorithm is based on simple concepts, where we demonstrate that classification of the compressed data improves computation time required by a factor 5 with prediction accuracy with both compressed and original data being exactly the same as 92.47%. With the proposed lossy compression scheme and pruning methods, we demonstrate that even with a reduction of distinct sequences by a factor of 6 (690 to 106), the prediction accuracy improves. Specifically, with original data containing 690 distinct subsequences, the classification accuracy is 92.47% and with appropriate choice of parameters for pruning, the number of distinct subsequences reduces to 106 with corresponding classification accuracy as 92.92%. The best classification accuracy of 93.3% is obtained with 452 distinct subsequences. With the scheme of simultaneous feature and prototype selection, we improved classification accuracy to better than that obtained with kNNC, viz., 93.58%, while significantly reducing the number of features and prototypes, achieving a compaction of 45.1%. In case of hybrid schemes based on SVM, prototypes and domain knowledge based tree(KB-Tree), we demonstrated reduction in SVM training time by 50% and testing time by about 30% as compared to complete data and improvement of classification accuracy to 94.75%. In case of AdaBoost the classification accuracy is 94.48%, which is better than those obtained with NNC and kNNC on the entire data; the training timing is reduced because of use of prototypes instead of the complete data. Another important aspect of the work is to devise a KB-Tree (with maximum depth of 4), that classifies a 10-category data in just 4 comparisons. In addition to hw data, we applied the schemes to Network Intrusion Detection Data (10% dataset of KDDCUP99) and demonstrated that the proposed schemes provided less overall cost than the reported values.
9

Otimização da função de fitness para a evolução de redes neurais com o uso de análise envoltória de dados aplicada à previsão de séries temporais

SILVA, David Augusto 01 July 2011 (has links)
Submitted by (ana.araujo@ufrpe.br) on 2016-06-28T16:05:18Z No. of bitstreams: 1 David Augusto Silva.pdf: 1453777 bytes, checksum: 4516b869e7e749b770a803eb7e91a084 (MD5) / Made available in DSpace on 2016-06-28T16:05:18Z (GMT). No. of bitstreams: 1 David Augusto Silva.pdf: 1453777 bytes, checksum: 4516b869e7e749b770a803eb7e91a084 (MD5) Previous issue date: 2011-07-01 / The techniques for Time Series Analysis and Forecasting have great presence on the literature over the years. The computational resources combined with statistical techniques are improving the predictive results, and these results have been become increasingly accurate. Computational methods base on Artificial Neural Networks (ANN) and Evolutionary Computing (EC) are presenting a new approach to solve the Time Series Analysis and Forecasting problem. These computational methods are contained in the branch of Artificial Intelligence (AI), and they are biologically inspired, where the ANN models are based on the neural structure of intelligent organism, and the EC uses the concept of nature selection of Charles Darwin. Both methods acquire experience from prior knowledge and example of the given problem. In particular, for the Time Series Forecasting Problem, the objective is to find the predictive model with highest forecast perfomance, where the performance measure are statistical errors. However, there is no universal criterion to identify the best performance measure. Since the ANNs are the predictive models, the EC will constantly evaluate the forecast performance of the ANNs, using a fitness functions to guide the predictive model for an optimal solution. The Data Envelopment Analysis (DEA) was employed to predictive determine the best combination of variables based on the relative efficiency of the best models. Therefore, this work to study the optimization Fitness Function process with Data Envelopment Analysis applied the Intelligence Hybrid System for time series forecasting problem. The data analyzed are composed by financial data series, agribusiness and natural phenomena. The C language program was employed for implementation of the hybrid intelligent system and the R Environment version 2.12 for analysis of DEA models. In general, the perspective of using DEA procedure to evaluate the fitness functions were satisfactory and serves as an additional resource in the branch of time series forecasting. Researchers need to compute the results under different perspectives, whether in the matter of the computational cost of implementing a particular function or which function was more efficient in the aspect of assessing which combinations are unwanted saving time and resources. / As técnicas de análise e previsão de séries temporais alcançaram uma posição de distinção na literatura ao longo dos anos. A utilização de recursos computacionais, combinada com técnicas estatísticas, apresenta resultados mais precisos quando comparados com os recursos separadamente. Em particular, técnicas que usam Redes Neurais Artificiais (RNA) e Computação Evolutiva (CE), apresenta uma posição de destaque na resolução de problemas de previsão na análise de séries temporais. Estas técnicas de Inteligência Artificial (AI) são inspiradas biologicamente, no qual o modelo de RNA é baseado na estrutura neural de organismos inteligentes, que adquirem conhecimento através da experiência. Para o problema de previsão em séries temporais, um fator importante para o maior desempenho na previsão é encontrar um método preditivo com a melhor acurácia possível, tanto quanto possível, no qual o desempenho do método pode ser analisado através de erros de previsão. Entretanto, não existe um critério universal para identificar qual a melhor medida de desempenho a ser utilizada para a caracterização da previsão. Uma vez que as RNAs são os modelos de previsão, a CE constantemente avaliará o desempenho de previsão das RNAs, usando uma função de fitness para guiar o modelo preditivo para uma solução ótima. Desejando verificar quais critérios seriam mais eficientes no momento de escolher o melhor modelo preditivo, a Análise Envoltória de Dados (DEA) é aplicada para fornecer a melhor combinação de variáveis visando a otimização do modelo. Portanto, nesta dissertação, foi estudado o processo de otimização de Funções de Fitness através do uso da Análise Envoltória de Dados utilizando-se de técnicas hibridas de Inteligência Artificial aplicadas a área de previsão de séries temporais. O banco de dados utilizado foi obtido de séries históricas econômico- financeiras, fenômenos naturais e agronegócios obtidos em diferentes órgãos específicos de cada área. Quanto à parte operacional, utilizou-se a linguagem de programação C para implementação do sistema híbrido inteligente e o ambiente R versão 2.12 para a análise dos modelos DEA. Em geral, a perspectiva do uso da DEA para avaliar as Funções de Fitness foi satisfatório e serve como recurso adicional na área de previsão de séries temporais. Cabe ao pesquisador, avaliar os resultados sob diferentes óticas, quer seja sob a questão do custo computacional de implementar uma determinada Função que foi mais eficiente ou sob o aspecto de avaliar quais combinações não são desejadas poupando tempo e recursos.

Page generated in 0.1342 seconds