• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 57
  • 9
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 66
  • 66
  • 54
  • 42
  • 28
  • 25
  • 17
  • 11
  • 10
  • 8
  • 7
  • 7
  • 7
  • 7
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Geração de populações artificiais para treinamento de classificadores de apoio ao diagnóstico de glaucoma. / Artificial generation of populations for machine learning classifiers training to glaucoma diagnosis support.

Dias, Marcelo 01 June 2009 (has links)
Glaucoma é uma neuropatia óptica cuja progressão gera comprometimento no campo visual e cegueira. Devido aos danos irreversíveis, a identicação precoce e correta é vital para o controle da progressão da doença. Para diagnóstico de glaucoma , oftalmologistas analisam dados de campo visual e da anatomia ocular obtidos através de testes. Para reduzir a quantidade de resultados falso negativos e falso positivos, diversas técnicas tem sido desenvolvidas para incrementar a sensibilidade e especicidade dos testes diagnósticos de glaucoma. Para aplicações médicas, existem estudos que indicam como uma abordagem promissora o uso de classicadores de aprendizagem de máquina baseados em diferentes conceitos como Árvores de Decisão, Redes Neurais Articiais e abordagem Bayesiana. Apesar da disponibilidade de sosticados algoritmos para desenvolvimento de classicadores, o sucesso do treinamento destes classicadores é altamente dependente de dados de qualidade. Dados de qualidade signicam que os exemplos fornecidos para treinamento devem representar a maior quantidade possível de situações encontradas no mundo real. Estes requisitos são normalmente atendidos se dados de uma grande quantidade de pacientes estiver disponível. Entretanto, diversos fatores como o perl da população avaliada, a duração das tarefas de coleta de dados, disponibilidade de equipamentos e de prossionais de saúde, além do comprometimento dos pacientes com o programa de pesquisa, restringem o tamanho do conjunto de dados. Uma possível estratégia para resolver o problema da escassez de dados para a tarefa de treinamento dos classicadores é o emprego de dados articiais que representam populações reais. Estes dados articiais serão adequados ao treinamento dos classicadores se possuírem características estatísticas de populações reais. O uso de populações articiais possibilitará a criação de conjuntos de dados com número adequado de pacientes, sem gastar anos coletando dados. Neste trabalho é apresentado um gerador de dados articiais denominado GLOR, baseado em um método de Monte Carlo, que é adequado ao treinamento de classicadores para o diagnóstico de glaucoma. A população gerada é caracterizada por dados funcionais e estruturais fornecidos pelos instrumentos de perimetria computadorizada padrão ou Standard Automated Perimetry (SAP) e tomograa de coerência óptica de alta denição ou High Denition Optical Coherence Tomography (HD-OCT). Os resultados experimentais, obtidos após o treinamento de uma Rede Neural Articial empregando população gerada pelo GLOR contendo 4500 indivíduos normais e 500 glaucomatosos e avaliação com dados de uma população real formada por 44 indivíduos normais e 26 glaucomatosos, foram: acurácia total de 87,1%, sensibilidade de 80,8%, especicidade de 90,9% e área sob curva ROC de 0,941. Tais resultados indicam que o GLOR pode ser empregado satisfatoriamente no desenvolvimento de novos métodos que possam elevar a sensibilidade e especicidade no diagnóstico de glaucoma. / Glaucoma is an optical neuropathy, whose progression results in visual eld impairments and blindness. Due to its irreversible damages, early and correct identication is very important to control glaucoma\'s progression. For glaucoma diagnosis, ophthalmologists analyze patient\'s visual eld and eyes structural data obtained by using eyes\' test equipments. In order to reduce the quantity of false-negative and false-positive results, several new techniques have been developed to increment the sensitivity and specicity of glaucoma diagnostic tests. A promising approach is the use of machine learning classiers. Classiers based on dierent concepts like Decision Trees, Articial Neural Networks, and Bayesian approach, have been developed for medical applications. Despite the availability of sophisticated algorithms for classiers development, successful training of classiers is highly dependent of good training data. Good data means that examples provided for classier training should represent the many dierent situations found in real world. These requirements are usually accomplished if data from a large number of patients is available. However, several factors like prole of evaluated population, duration of the data acquisition activities, existence of healthcare professionals, and equipment availability, and people\'s commitment to the research program, restrict the size of patient\'s dataset. A possible approach to overcome the lack of patient\'s data to perform the classier\'s training task is to use articial data that represent a real population. This articial data would be suitable for classiers training if it has similar statistical properties of a real population. The use of articial population will enable the creation of datasets with required number of patients, and without spending years measuring patients. It will also be possible to simulate scenarios and strategies before a long term research program starts. In this work is presented an articial data generator named GLOR, based on a Monte Carlo method, and suitable for the training of classiers for glaucoma diagnosis. The generated population is characterized by eyes\'functional and structural data provided by Standard Automated Perimetry (SAP) and High Denition Optical Coherence Tomography (HD-OCT) instruments. The experimental results, obtained after an Articial Neural Network training employing a population generated by GLOR comprising of 4500 normal and 500 glaucomatous individuals and evaluated by using real population data from 44 normal and 26 glaucomatous subjects, were: 87.1% for overall accuracy, 80.8% for sensitivity, 90.9% for specicity and 0.941 for the area under ROC curve. These results show that GLOR can be used as a promising approach to accelerate the development of new methods to increment sensitivity and specicity of glaucoma diagnosis.
52

Otimização e análise das máquinas de vetores de suporte aplicadas à classificação de documentos. / Optimization and analysis of support vector machine applied to text classification.

Kinto, Eduardo Akira 17 June 2011 (has links)
A análise das informações armazenadas é fundamental para qualquer tomada de decisão, mas para isso ela deve estar organizada e permitir fácil acesso. Quando temos um volume de dados muito grande, esta tarefa torna-se muito mais complicada do ponto de vista computacional. É fundamental, então, haver mecanismos eficientes para análise das informações. As Redes Neurais Artificiais (RNA), as Máquinas de Vetores-Suporte (Support Vector Machine - SVM) e outros algoritmos são frequentemente usados para esta finalidade. Neste trabalho, iremos explorar o SMO (Sequential Minimal Optimization) e alterá-lo, com a finalidade de atingir um tempo de treinamento menor, mas, ao mesmo tempo manter a capacidade de classificação. São duas as alterações propostas, uma, no seu algoritmo de treinamento e outra, na sua arquitetura. A primeira modificação do SMO proposta neste trabalho é permitir a atualização de candidatos ao vetor suporte no mesmo ciclo de atualização de um coeficiente de Lagrange. Dos algoritmos que codificam o SVM, o SMO é um dos mais rápidos e um dos que menos consome memória. A complexidade computacional do SMO é menor com relação aos demais algoritmos porque ele não trabalha com inversão de uma matriz de kernel. Esta matriz, que é quadrada, costuma ter um tamanho proporcional ao número de amostras que compõem os chamados vetores-suporte. A segunda proposta para diminuir o tempo de treinamento do SVM consiste na subdivisão ordenada do conjunto de treinamento, utilizando-se a dimensão de maior entropia. Esta subdivisão difere das abordagens tradicionais pelo fato de as amostras não serem constantemente submetidas repetidas vezes ao treinamento do SVM. Finalmente, é aplicado o SMO proposto para classificação de documentos ou textos por meio de uma abordagem nova, a classificação de uma-classe usando classificadores binários. Como toda classificação de documentos, a análise dos atributos é uma etapa fundamental, e aqui uma nova contribuição é apresentada. Utilizamos a correlação total ponto a ponto para seleção das palavras que formam o vetor de índices de palavras. / Stored data analysis is very important when taking a decision in every business, but to accomplish this task data must be organized in a way it can be easily accessed. When we have a huge amount of information, data analysis becomes a very computational hard job. So, it is essential to have an efficient mechanism for information analysis. Artificial neural networks (ANN), support vector machine (SVM) and other algorithms are frequently used for information analysis, and also in huge volume information analysis. In this work we will explore the sequential minimal optimization (SMO) algorithm, a learning algorithm for the SVM. We will modify it aiming for a lower training time and also to maintaining its classification generalization capacity. Two modifications are proposed to the SMO, one in the training algorithm and another in its architecture. The first modification to the SMO enables more than one Lagrange coefficient update by choosing the neighbor samples of the updating pair (current working set). From many options of SVM implementation, SMO was chosen because it is one of the fastest and less memory consuming one. The computational complexity of the SMO is lower than other types of SVM because it does not require handling a huge Kernel matrix. Matrix inversion is one of the most time consuming step of SVM, and its size is as bigger as the number of support vectors of the sample set. The second modification to the SMO proposes the creation of an ordered subset using as a reference one of the dimensions; entropy measure is used to choose the dimension. This subset creation is different from other division based SVM architectures because samples are not used in more than one training pair set. All this improved SVM is used on a one-class like classification task of documents. Every document classification problem needs a good feature vector (feature selection and dimensionality reduction); we propose in this work a novel feature indexing mechanism using the pointwise total correlation.
53

Tecnologias adaptativas aplicadas na flexibilização de redes neurais artificiais e redes de Petri. / Adaptive technologies applied to flexibilization of artificial neural networks and Petri nets.

Guibu, Haroldo Issao 15 December 2017 (has links)
O objetivo deste trabalho é o estudo das tecnologias adaptativas aplicadas às redes neurais artificiais e às redes de Petri. Além disso, uma metodologia é proposta para estas aplicações a partir da definição de uma rede de Petri colorida adaptativa. Inicialmente, as redes neurais artificiais são estudadas do ponto de vista da extração de regras. Uma das críticas recorrentes às redes neurais artificiais é a característica de \"caixa preta\" das soluções, significando que as soluções escondem o mecanismo de funcionamento, deixando em dúvida a razão de seu funcionamento. A extração de regras a partir das redes neurais artificiais objetiva apresentar uma solução equivalente baseada em regras que para os especialistas em uma determinada área seja mais inteligível ou transparente. Outro ponto importante é a inserção de regras nas redes neurais artificiais. Esta inserção é possível a partir da versão baseada em regras das redes neurais artificiais. Um especialista humano em uma área muitas vezes cria um conjunto de regras que o auxiliam na compreensão do problema. Se estas regras forem inseridas ao conjunto de regras obtidas através dos dados, o novo conjunto de regras conterá ao mesmo tempo o conhecimento humano e o conhecimento extraído dos dados. As tecnologias adaptativas de extração e inserção de regras tornam as soluções mais flexíveis. As redes de Petri são, em certo sentido, complementares às redes neurais artificiais pois foram criadas para tratar os \"Sistemas a Eventos Discretos\" ou sistemas sequenciais, enquanto que as redes neurais artificiais possuem uma natureza combinatória. Muitas extensões foram propostas à redes de Petri ao longo dos anos e entre estas extensões aparecem associações de redes de Petri e redes neurais artificiais. Nestas associações, muitas técnicas desenvolvidas para as redes neurais artificiais foram incorporadas às redes de Petri como, por exemplo, as diversas formas de aprendizado. Utilizando a característica das redes de Petri de modelagem de sistemas sequenciais, a fase de treinamento das redes neurais artificiais pode ser controlada pela rede de Petri. Neste trabalho, a incorporação de regras à rede de Petri é examinada assim como a sua aplicação a sistemas de apoio à decisão e a sistemas de manufatura flexível. / The objective of this work is the study of adaptive technologies applied to artificial neural networks and Petri nets. In addition, a methodology is proposed for these applications from the definition of an adaptive color Petri net. Initially, artificial neural networks are studied from the point of view of rule extraction. One of the recurring criticisms of artificial neural networks is the \"black box\" feature of the solutions, meaning that the solutions hide the working mechanism, casting doubt on the reason for its operation. The extraction of rules from the artificial neural networks aims to present an equivalent solution based on rules that for the experts in a given area is more intelligible or transparent. Another important point is the insertion of rules in artificial neural networks. This insertion is possible from the rule-based version of artificial neural networks. A human expert in an area often creates a set of rules that aid in understanding the problem. If these rules are inserted into the set of rules obtained from the data, the new set of rules will contain at the same time the human knowledge and the knowledge extracted from the data. Adaptive rule extraction and insertion technologies make solutions more flexible. Petri nets are, in a sense, complementary to artificial neural networks as they were designed to treat \"Discrete Event Systems\" or sequential systems, while artificial neural networks have a combinatorial nature. Many extensions have been proposed to the Petri nets over the years and among these extensions appear associations of Petri nets and artificial neural networks. In these associations, many techniques developed for artificial neural networks were incorporated into Petri nets, such as the various forms of learning. Using the Petri nets feature of sequential modeling, the training phase of artificial neural networks can be controlled by the Petri net. In this work, the incorporation of rules into the Petri net is examined as well as its application to decision support systems and flexible manufacturing systems.
54

Otimização e análise das máquinas de vetores de suporte aplicadas à classificação de documentos. / Optimization and analysis of support vector machine applied to text classification.

Eduardo Akira Kinto 17 June 2011 (has links)
A análise das informações armazenadas é fundamental para qualquer tomada de decisão, mas para isso ela deve estar organizada e permitir fácil acesso. Quando temos um volume de dados muito grande, esta tarefa torna-se muito mais complicada do ponto de vista computacional. É fundamental, então, haver mecanismos eficientes para análise das informações. As Redes Neurais Artificiais (RNA), as Máquinas de Vetores-Suporte (Support Vector Machine - SVM) e outros algoritmos são frequentemente usados para esta finalidade. Neste trabalho, iremos explorar o SMO (Sequential Minimal Optimization) e alterá-lo, com a finalidade de atingir um tempo de treinamento menor, mas, ao mesmo tempo manter a capacidade de classificação. São duas as alterações propostas, uma, no seu algoritmo de treinamento e outra, na sua arquitetura. A primeira modificação do SMO proposta neste trabalho é permitir a atualização de candidatos ao vetor suporte no mesmo ciclo de atualização de um coeficiente de Lagrange. Dos algoritmos que codificam o SVM, o SMO é um dos mais rápidos e um dos que menos consome memória. A complexidade computacional do SMO é menor com relação aos demais algoritmos porque ele não trabalha com inversão de uma matriz de kernel. Esta matriz, que é quadrada, costuma ter um tamanho proporcional ao número de amostras que compõem os chamados vetores-suporte. A segunda proposta para diminuir o tempo de treinamento do SVM consiste na subdivisão ordenada do conjunto de treinamento, utilizando-se a dimensão de maior entropia. Esta subdivisão difere das abordagens tradicionais pelo fato de as amostras não serem constantemente submetidas repetidas vezes ao treinamento do SVM. Finalmente, é aplicado o SMO proposto para classificação de documentos ou textos por meio de uma abordagem nova, a classificação de uma-classe usando classificadores binários. Como toda classificação de documentos, a análise dos atributos é uma etapa fundamental, e aqui uma nova contribuição é apresentada. Utilizamos a correlação total ponto a ponto para seleção das palavras que formam o vetor de índices de palavras. / Stored data analysis is very important when taking a decision in every business, but to accomplish this task data must be organized in a way it can be easily accessed. When we have a huge amount of information, data analysis becomes a very computational hard job. So, it is essential to have an efficient mechanism for information analysis. Artificial neural networks (ANN), support vector machine (SVM) and other algorithms are frequently used for information analysis, and also in huge volume information analysis. In this work we will explore the sequential minimal optimization (SMO) algorithm, a learning algorithm for the SVM. We will modify it aiming for a lower training time and also to maintaining its classification generalization capacity. Two modifications are proposed to the SMO, one in the training algorithm and another in its architecture. The first modification to the SMO enables more than one Lagrange coefficient update by choosing the neighbor samples of the updating pair (current working set). From many options of SVM implementation, SMO was chosen because it is one of the fastest and less memory consuming one. The computational complexity of the SMO is lower than other types of SVM because it does not require handling a huge Kernel matrix. Matrix inversion is one of the most time consuming step of SVM, and its size is as bigger as the number of support vectors of the sample set. The second modification to the SMO proposes the creation of an ordered subset using as a reference one of the dimensions; entropy measure is used to choose the dimension. This subset creation is different from other division based SVM architectures because samples are not used in more than one training pair set. All this improved SVM is used on a one-class like classification task of documents. Every document classification problem needs a good feature vector (feature selection and dimensionality reduction); we propose in this work a novel feature indexing mechanism using the pointwise total correlation.
55

Geração de populações artificiais para treinamento de classificadores de apoio ao diagnóstico de glaucoma. / Artificial generation of populations for machine learning classifiers training to glaucoma diagnosis support.

Marcelo Dias 01 June 2009 (has links)
Glaucoma é uma neuropatia óptica cuja progressão gera comprometimento no campo visual e cegueira. Devido aos danos irreversíveis, a identicação precoce e correta é vital para o controle da progressão da doença. Para diagnóstico de glaucoma , oftalmologistas analisam dados de campo visual e da anatomia ocular obtidos através de testes. Para reduzir a quantidade de resultados falso negativos e falso positivos, diversas técnicas tem sido desenvolvidas para incrementar a sensibilidade e especicidade dos testes diagnósticos de glaucoma. Para aplicações médicas, existem estudos que indicam como uma abordagem promissora o uso de classicadores de aprendizagem de máquina baseados em diferentes conceitos como Árvores de Decisão, Redes Neurais Articiais e abordagem Bayesiana. Apesar da disponibilidade de sosticados algoritmos para desenvolvimento de classicadores, o sucesso do treinamento destes classicadores é altamente dependente de dados de qualidade. Dados de qualidade signicam que os exemplos fornecidos para treinamento devem representar a maior quantidade possível de situações encontradas no mundo real. Estes requisitos são normalmente atendidos se dados de uma grande quantidade de pacientes estiver disponível. Entretanto, diversos fatores como o perl da população avaliada, a duração das tarefas de coleta de dados, disponibilidade de equipamentos e de prossionais de saúde, além do comprometimento dos pacientes com o programa de pesquisa, restringem o tamanho do conjunto de dados. Uma possível estratégia para resolver o problema da escassez de dados para a tarefa de treinamento dos classicadores é o emprego de dados articiais que representam populações reais. Estes dados articiais serão adequados ao treinamento dos classicadores se possuírem características estatísticas de populações reais. O uso de populações articiais possibilitará a criação de conjuntos de dados com número adequado de pacientes, sem gastar anos coletando dados. Neste trabalho é apresentado um gerador de dados articiais denominado GLOR, baseado em um método de Monte Carlo, que é adequado ao treinamento de classicadores para o diagnóstico de glaucoma. A população gerada é caracterizada por dados funcionais e estruturais fornecidos pelos instrumentos de perimetria computadorizada padrão ou Standard Automated Perimetry (SAP) e tomograa de coerência óptica de alta denição ou High Denition Optical Coherence Tomography (HD-OCT). Os resultados experimentais, obtidos após o treinamento de uma Rede Neural Articial empregando população gerada pelo GLOR contendo 4500 indivíduos normais e 500 glaucomatosos e avaliação com dados de uma população real formada por 44 indivíduos normais e 26 glaucomatosos, foram: acurácia total de 87,1%, sensibilidade de 80,8%, especicidade de 90,9% e área sob curva ROC de 0,941. Tais resultados indicam que o GLOR pode ser empregado satisfatoriamente no desenvolvimento de novos métodos que possam elevar a sensibilidade e especicidade no diagnóstico de glaucoma. / Glaucoma is an optical neuropathy, whose progression results in visual eld impairments and blindness. Due to its irreversible damages, early and correct identication is very important to control glaucoma\'s progression. For glaucoma diagnosis, ophthalmologists analyze patient\'s visual eld and eyes structural data obtained by using eyes\' test equipments. In order to reduce the quantity of false-negative and false-positive results, several new techniques have been developed to increment the sensitivity and specicity of glaucoma diagnostic tests. A promising approach is the use of machine learning classiers. Classiers based on dierent concepts like Decision Trees, Articial Neural Networks, and Bayesian approach, have been developed for medical applications. Despite the availability of sophisticated algorithms for classiers development, successful training of classiers is highly dependent of good training data. Good data means that examples provided for classier training should represent the many dierent situations found in real world. These requirements are usually accomplished if data from a large number of patients is available. However, several factors like prole of evaluated population, duration of the data acquisition activities, existence of healthcare professionals, and equipment availability, and people\'s commitment to the research program, restrict the size of patient\'s dataset. A possible approach to overcome the lack of patient\'s data to perform the classier\'s training task is to use articial data that represent a real population. This articial data would be suitable for classiers training if it has similar statistical properties of a real population. The use of articial population will enable the creation of datasets with required number of patients, and without spending years measuring patients. It will also be possible to simulate scenarios and strategies before a long term research program starts. In this work is presented an articial data generator named GLOR, based on a Monte Carlo method, and suitable for the training of classiers for glaucoma diagnosis. The generated population is characterized by eyes\'functional and structural data provided by Standard Automated Perimetry (SAP) and High Denition Optical Coherence Tomography (HD-OCT) instruments. The experimental results, obtained after an Articial Neural Network training employing a population generated by GLOR comprising of 4500 normal and 500 glaucomatous individuals and evaluated by using real population data from 44 normal and 26 glaucomatous subjects, were: 87.1% for overall accuracy, 80.8% for sensitivity, 90.9% for specicity and 0.941 for the area under ROC curve. These results show that GLOR can be used as a promising approach to accelerate the development of new methods to increment sensitivity and specicity of glaucoma diagnosis.
56

Automatização do processo de seleção de transformações para otimização do tempo de execução por meio de aprendizado de máquina no arcabouço da LLVM. / Transformation selection process automation for execution time optimization through machine learning on LLVM framework.

Jorge Augusto Sabaliauskas 28 April 2015 (has links)
A rápida evolução do hardware demanda uma evolução contínua dos compiladores. Um processo de ajuste deve ser realizado pelos projetistas de compiladores para garantir que o código gerado pelo compilador mantenha uma determinada qualidade, seja em termos de tempo de processamento ou outra característica pré-definida. Este trabalho visou automatizar o processo de ajuste de compiladores por meio de técnicas de aprendizado de máquina. Como resultado os planos de compilação obtidos usando aprendizado de máquina com as características propostas produziram código para programas cujos valores para os tempos de execução se aproximaram daqueles seguindo o plano padrão utilizado pela LLVM. / The fast evolution of hardware demands a continue evolution of the compilers. Compiler designers must perform a tuning process to ensure that the code generated by the compiler maintain a certain quality, both in terms of processing time or another preset feature. This work aims to automate compiler adjustment process through machine learning techniques. As a result the compiler plans obtained using machine learning with the proposed features had produced code for programs whose values for the execution times approached those following the standard plan used by LLVM.
57

Uso de heurísticas para a aceleração do aprendizado por reforço. / Heuristically acelerated reinforcement learning.

Reinaldo Augusto da Costa Bianchi 05 April 2004 (has links)
Este trabalho propõe uma nova classe de algoritmos que permite o uso de heurísticas para aceleração do aprendizado por reforço. Esta classe de algoritmos, denominada \"Aprendizado Acelerado por Heurísticas\" (\"Heuristically Accelerated Learning\" - HAL), é formalizada por Processos Markovianos de Decisão, introduzindo uma função heurística H para influenciar o agente na escolha de suas ações, durante o aprendizado. A heurística é usada somente para a escolha da ação a ser tomada, não modificando o funcionamento do algoritmo de aprendizado por reforço e preservando muitas de suas propriedades. As heurísticas utilizadas nos HALs podem ser definidas a partir de conhecimento prévio sobre o domínio ou extraídas, em tempo de execução, de indícios que existem no próprio processo de aprendizagem. No primeiro caso, a heurística é definida a partir de casos previamente aprendidos ou definida ad hoc. No segundo caso são utilizados métodos automáticos de extração da função heurística H chamados \"Heurística a partir de X\" (\"Heuristic from X\"). Para validar este trabalho são propostos diversos algoritmos, entre os quais, o \"Q-Learning Acelerado por Heurísticas\" (Heuristically Accelerated Q-Learning - HAQL), que implementa um HAL estendendo o conhecido algoritmo Q-Learning, e métodos de extração da função heurística que podem ser usados por ele. São apresentados experimentos utilizando os algoritmos acelerados por heurísticas para solucionar problemas em diversos domínios - sendo o mais importante o de navegação robótica - e as heurísticas (pré-definidas ou extraídas) que foram usadas. Os resultados experimentais permitem concluir que mesmo uma heurística muito simples resulta em um aumento significativo do desempenho do algoritmo de aprendizado de reforço utilizado. / This work presents a new class of algorithms that allows the use of heuristics to speed up Reinforcement Learning (RL) algorithms. This class of algorithms, called \"Heuristically Accelerated Learning\" (HAL) is modeled using a convenient mathematical formalism known as Markov Decision Processes. To model the HALs a heuristic function that influences the choice of the actions by the agent during its learning is defined. As the heuristic is used only when choosing the action to be taken, the RL algorithm operation is not modified and many proprieties of the RL algorithms are preserved. The heuristic used in the HALs can be defined from previous knowledge about the domain or be extracted from clues that exist in the learning process itself. In the first case, the heuristic is defined from previously learned cases or is defined ad hoc. In the second case, automatic methods for the extraction of the heuristic function H called \"Heuristic from X\" are used. A new algorithm called Heuristically Accelerated Q-Learning is proposed, among others, to validate this work. It implements a HAL by extending the well-known RL algorithm Q-Learning. Experiments that use the heuristically accelerated algorithms to solve problems in a number of domains - including robotic navigation - are presented. The experimental results allow to conclude that even a very simple heuristic results in a significant performance increase in the used reinforcement learning algorithm.
58

Aplicação de algoritmos de agrupamento para descoberta de padrões de defeito em software JavaScript / Application of clustering algorithms for discovering bug patterns in JavaScript software

Charles Mendes de Macedo 26 October 2018 (has links)
As aplicações desenvolvidas com a linguagem JavaScript, vêm aumentando a cada dia, não somente aquelas na web (client-side), como também as aplicações executadas no servidor (server-side) e em dispositivos móveis (mobile). Neste contexto, a existência de ferramentas para identicação de defeitos e code smells é fundamental, para auxiliar desenvolvedores durante a evoluçãp destas aplicações. A maioria dessas ferramentas utiliza uma lista de defeitos predenidos que são descobertos a partir da observação das melhores práticas de programação e a intuição do desenvolvedor. Para melhorar essas ferramentas, a descoberta automática de defeitos e code smells é importante, pois permite identicar quais ocorrem realmente na prática e de forma frequente. Uma ferramenta que implementa uma estratégia semiautomática para descobrir padrões de defeitos através de agrupamentos das mudanças realizadas no decorrer do desenvolvimento do projeto é a ferramenta BugAID. O objetivo deste trabalho é contribuir nessa ferramenta estendendo-a com melhorias na abordagem da extração de características, as quais são usadas pelos algoritmos de clusterização. O módulo estendido encarregado da extração de características é chamado de BugAIDExtract+ +. Além disso, neste trabalho é realizada uma avaliação de vários algoritmos de clusterização na descoberta dos padrõs de defeitos em software JavaScript / Applications developed with JavaScript language are increasing every day, not only for client-side, but also for server-side and for mobile devices. In this context, the existence of tools to identify faults is fundamental in order to assist developers during the evolution of their applications. Most of these tools use a list of predened faults that are discovered from the observation of the programming best practices and developer intuition. To improve these tools, the automatic discovery of faults and code smells is important because it allows to identify which ones actually occur in practice and frequently. A tool that implements a semiautomatic strategy for discovering bug patterns by grouping the changes made during the project development is the BugAID. The objective of this work is to contribute to the BugAID tool, extending this tool with improvements in the extraction of characteristics to be used by the clustering algorithm. The extended module that extracts the characteristics is called BE+. Additionally, an evaluation of the clustering algorithms used for discovering fault patterns in JavaScript software is performed
59

Knowledge reuse for deep reinforcement learning. / Reutilização do conhecimento para aprendizado por reforço profundo.

Glatt, Ruben 12 June 2019 (has links)
With the rise of Deep Learning the field of Artificial Intelligence (AI) Research has entered a new era. Together with an increasing amount of data and vastly improved computing capabilities, Machine Learning builds the backbone of AI, providing many of the tools and algorithms that drive development and applications. While we have already achieved many successes in the fields of image recognition, language processing, recommendation engines, robotics, or autonomous systems, most progress was achieved when the algorithms were focused on learning only a single task with little regard to effort and reusability. Since learning a new task from scratch often involves an expensive learning process, in this work, we are considering the use of previously acquired knowledge to speed up the learning of a new task. For that, we investigated the application of Transfer Learning methods for Deep Reinforcement Learning (DRL) agents and propose a novel framework for knowledge preservation and reuse. We show, that the knowledge transfer can make a big difference if the source knowledge is chosen carefully in a systematic approach. To get to this point, we provide an overview of existing literature of methods that realize knowledge transfer for DRL, a field which has been starting to appear frequently in the relevant literature only in the last two years. We then formulate the Case-based Reasoning methodology, which describes a framework for knowledge reuse in general terms, in Reinforcement Learning terminology to facilitate the adaption and communication between the respective communities. Building on this framework, we propose Deep Case-based Policy Inference (DECAF) and demonstrate in an experimental evaluation the usefulness of our approach for sequential task learning with knowledge preservation and reuse. Our results highlight the benefits of knowledge transfer while also making aware of the challenges that come with it. We consider the work in this area as an important step towards more stable general learning agents that are capable of dealing with the most complex tasks, which would be a key achievement towards Artificial General Intelligence. / Com a evolução da Aprendizagem Profunda (Deep Learning), o campo da Inteligência Artificial (IA) entrou em uma nova era. Juntamente com uma quantidade crescente de dados e recursos computacionais cada vez mais aprimorados, o Aprendizado de Máquina estabelece a base para a IA moderna, fornecendo muitas das ferramentas e algoritmos que impulsionam seu desenvolvimento e aplicações. Apesar dos muitos sucessos nas áreas de reconhecimento de imagem, processamento de linguagem natural, sistemas de recomendação, robótica e sistemas autônomos, a maioria dos avanços foram feitos focando no aprendizado de apenas uma única tarefa, sem muita atenção aos esforços dispendidos e reusabilidade da solução. Como o aprendizado de uma nova tarefa geralmente envolve um processo de aprendizado despendioso, neste trabalho, estamos considerando o reúso de conhecimento para acelerar o aprendizado de uma nova tarefa. Para tanto, investigamos a aplicação dos métodos de Transferência de Aprendizado (Transfer Learning) para agentes de Aprendizado por Reforço profundo (Deep Reinforcement Learning - DRL) e propomos um novo arcabouço para preservação e reutilização de conhecimento. Mostramos que a transferência de conhecimento pode fazer uma grande diferença no aprendizado se a origem do conhecimento for escolhida cuidadosa e sistematicamente. Para chegar a este ponto, nós fornecemos uma visão geral da literatura existente de métodos que realizam a transferência de conhecimento para DRL, um campo que tem despontado com frequência na literatura relevante apenas nos últimos dois anos. Em seguida, formulamos a metodologia Raciocínio baseado em Casos (Case-based Reasoning), que descreve uma estrutura para reutilização do conhecimento em termos gerais, na terminologia de Aprendizado por Reforço, para facilitar a adaptação e a comunicação entre as respectivas comunidades. Com base nessa metodologia, propomos Deep Casebased Policy Inference (DECAF) e demonstramos, em uma avaliação experimental, a utilidade de nossa proposta para a aprendizagem sequencial de tarefas, com preservação e reutilização do conhecimento. Nossos resultados destacam os benefícios da transferência de conhecimento e, ao mesmo tempo, conscientizam os desafios que a acompanham. Consideramos o trabalho nesta área como um passo importante para agentes de aprendizagem mais estáveis, capazes de lidar com as tarefas mais complexas, o que seria um passo fundamental para a Inteligência Geral Artificial.
60

Tecnologias adaptativas aplicadas na flexibilização de redes neurais artificiais e redes de Petri. / Adaptive technologies applied to flexibilization of artificial neural networks and Petri nets.

Haroldo Issao Guibu 15 December 2017 (has links)
O objetivo deste trabalho é o estudo das tecnologias adaptativas aplicadas às redes neurais artificiais e às redes de Petri. Além disso, uma metodologia é proposta para estas aplicações a partir da definição de uma rede de Petri colorida adaptativa. Inicialmente, as redes neurais artificiais são estudadas do ponto de vista da extração de regras. Uma das críticas recorrentes às redes neurais artificiais é a característica de \"caixa preta\" das soluções, significando que as soluções escondem o mecanismo de funcionamento, deixando em dúvida a razão de seu funcionamento. A extração de regras a partir das redes neurais artificiais objetiva apresentar uma solução equivalente baseada em regras que para os especialistas em uma determinada área seja mais inteligível ou transparente. Outro ponto importante é a inserção de regras nas redes neurais artificiais. Esta inserção é possível a partir da versão baseada em regras das redes neurais artificiais. Um especialista humano em uma área muitas vezes cria um conjunto de regras que o auxiliam na compreensão do problema. Se estas regras forem inseridas ao conjunto de regras obtidas através dos dados, o novo conjunto de regras conterá ao mesmo tempo o conhecimento humano e o conhecimento extraído dos dados. As tecnologias adaptativas de extração e inserção de regras tornam as soluções mais flexíveis. As redes de Petri são, em certo sentido, complementares às redes neurais artificiais pois foram criadas para tratar os \"Sistemas a Eventos Discretos\" ou sistemas sequenciais, enquanto que as redes neurais artificiais possuem uma natureza combinatória. Muitas extensões foram propostas à redes de Petri ao longo dos anos e entre estas extensões aparecem associações de redes de Petri e redes neurais artificiais. Nestas associações, muitas técnicas desenvolvidas para as redes neurais artificiais foram incorporadas às redes de Petri como, por exemplo, as diversas formas de aprendizado. Utilizando a característica das redes de Petri de modelagem de sistemas sequenciais, a fase de treinamento das redes neurais artificiais pode ser controlada pela rede de Petri. Neste trabalho, a incorporação de regras à rede de Petri é examinada assim como a sua aplicação a sistemas de apoio à decisão e a sistemas de manufatura flexível. / The objective of this work is the study of adaptive technologies applied to artificial neural networks and Petri nets. In addition, a methodology is proposed for these applications from the definition of an adaptive color Petri net. Initially, artificial neural networks are studied from the point of view of rule extraction. One of the recurring criticisms of artificial neural networks is the \"black box\" feature of the solutions, meaning that the solutions hide the working mechanism, casting doubt on the reason for its operation. The extraction of rules from the artificial neural networks aims to present an equivalent solution based on rules that for the experts in a given area is more intelligible or transparent. Another important point is the insertion of rules in artificial neural networks. This insertion is possible from the rule-based version of artificial neural networks. A human expert in an area often creates a set of rules that aid in understanding the problem. If these rules are inserted into the set of rules obtained from the data, the new set of rules will contain at the same time the human knowledge and the knowledge extracted from the data. Adaptive rule extraction and insertion technologies make solutions more flexible. Petri nets are, in a sense, complementary to artificial neural networks as they were designed to treat \"Discrete Event Systems\" or sequential systems, while artificial neural networks have a combinatorial nature. Many extensions have been proposed to the Petri nets over the years and among these extensions appear associations of Petri nets and artificial neural networks. In these associations, many techniques developed for artificial neural networks were incorporated into Petri nets, such as the various forms of learning. Using the Petri nets feature of sequential modeling, the training phase of artificial neural networks can be controlled by the Petri net. In this work, the incorporation of rules into the Petri net is examined as well as its application to decision support systems and flexible manufacturing systems.

Page generated in 0.5161 seconds