• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 167
  • 5
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 175
  • 121
  • 69
  • 59
  • 58
  • 56
  • 55
  • 46
  • 46
  • 46
  • 46
  • 41
  • 41
  • 40
  • 36
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Uma nova abordagem baseada em algoritmos evolutivos multiobjetivo aplicado ao problema do caixeiro viajante biobjetivo / A new approach based on a multiobjective evolutionary algorithm applied to the biobjective traveling salesman problem

Moraes, Deyvid Heric de 02 August 2017 (has links)
Neste trabalho é apresentada uma nova abordagem de algoritmo evolutivo multiobjetivo, denominado MOEA/NSM (do inglês, Multiobjective Evolutionary Algorithm integrating NSGA-II, SPEA2 and MOEA/D features). O algoritmo preserva em geral, características de um algoritmo evolutivo, concentrando qualidades de outras abordagens de sucesso na literatura em uma única abordagem, para que elas trabalhem em conjunto, por meio de subpopulações. O objetivo do estudo foi combinar as principais características dos algoritmos NSGA-II, SPEA2 e MOEA/D, e incluir ainda uma técnica de busca local para melhorar a busca no espaço de objetivos. O algoritmo MOEA/NSM foi comparado às demais abordagens clássicas utilizando 9 datasets para o problema do caixeiro viajante biobjetivo. Além disso, foram realizados experimentos aplicando também a busca local nas abordagens clássicas, resultando em considerável melhora nos resultados para esses algoritmos. A partir das fronteiras de Pareto resultantes dos experimentos, foram aplicadas as métricas de avaliação por Hipervolume, Epsilon (ε), R2, EAF, além do teste de hipótese estatístico Shapiro-Wilk. Os resultados apontaram um melhor desempenho do MOEA/NSM em relação aos demais, mesmo aplicando a busca local nas outras abordagens. Nesse sentido, o MOEA/NSM pode ser considerado um algoritmo que consegue encontrar soluções não denominadas de qualidade, tanto quanto os algoritmos clássicos da literatura. / This work presents a new approach to the multiobjective evolutionary algorithm, called MOEA/NSM (Multiobjective Evolutionary Algorithm integrating NSGA-II, SPEA2 and MOEA/D features). The algorithm preserves, in general, the characteristics of an evolutionary algorithm, concentrating qualities of other approaches of success in the literature in a single approach, so that they work together, through subpopulations. The objective of the study was to combine the main characteristics of the NSGA-II, SPEA2 and MOEA/D algorithms, and also to include a local search technique to improve the objective space search. The MOEA/NSM algorithm was compared to the other classical approaches using 9 datasets for the biobjective traveling salesman problem. In addition, experiments were carried out also applying the local search in the classical approaches, resulting in a considerable improvement in the results for these algorithms. From the Pareto frontiers resulting from experiments, we applied the evaluation metrics by Hypervolume, Epsilon (ε), R2, EAF, in addition to the Shapiro-Wilk statistical hypothesis test. The results showed a better performance of the MOEA/NSM in relation to the others, even applying the local search in the others approaches. In this sense, the MOEA/NSM can be considered an algorithm that is able to find solutions not dominated of quality, as much as the classic algorithms of the literature.
62

Identificação de falhas de curto-circuito de estator em motores de indução trifásicos utilizando evolução diferencial / Three-phase induction motor stator short-circuit fault identification using differential evolution

Guedes, Jacqueline Jordan 14 December 2016 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / Fundação Araucária de Apoio ao Desenvolvimento Científico e Tecnológico do Paraná / O motor de indução trifásico do tipo gaiola de esquilo é a principal máquina de conversão eletromecânica devido a sua robustez e facilidade de manutenção, sendo indispensável nos processos produtivos industriais. Por sua grande importância, pesquisas na área de identificação de falhas são realizadas constantemente com o objetivo de diminuir as taxas de manutenções corretivas e permitir uma manutenção programada, diminuindo perdas no processo produtivo, decorrentes de paradas indesejadas. Com esse propósito, o presente trabalho propõe o estudo e desenvolvimento de uma metodologia alternativa que utiliza a Evolução Diferencial para identificação de falhas de curto-circuito de estator em motores de indução conectados diretamente à rede elétrica, por meio dos sinais de tensão e corrente aquisitados no domínio do tempo. O algoritmo de Evolução Diferencial é utilizado para estimar os parâmetros elétricos do motor de indução, a partir do modelo do circuito elétrico equivalente e a identificação da falha ocorre a partir do cálculo da variação percentual da indutância de magnetização estimada com o motor sem falhas. A base de dados utilizada para o trabalho foi obtida por meio de experimentos laboratoriais realizados com dois motores diferentes de 1 CV e um motor de 2 CV, sob condições de variação de conjugado, tensões equilibradas e desequilibradas. / The squirrel cage three-phase induction motor is the main electromechanical conversion machine due to its robustness and easy maintenance, therefore it is indispensable in the industrial production processes. Due to its great importance, surveys related to its fault identification are conducted constantly, in order to reduce the corrective maintenance rates and allow a scheduled maintenance, reducing the losses in the production process, due to unexpected stops. With this purpose, this work proposes the study and development of an alternative methodology based on Differential Evolution algorithm to identify stator short-circuit failures in induction motors connected directly on the electric grid, through its voltage and current signals acquired in the time domain. This Differential Evolution algorithm is used to estimate the induction motor electric parameters based on its equivalent electric circuit model and the fault identification occurs in result of the calculation of the estimated magnetization inductance percentage variation considering a healthy motor. The database used for this work was obtained through laboratory experiments performed with two different types of 1 CV motor and a 2 CV motor under different conditions of torque variation and unbalanced voltages.
63

Um método para descoberta automática de regras para a detecção de Bad Smells / A method for the automatic discovery of rules for the detection of Bad Smells

Amorim, Lucas Benevides Viana de 05 May 2014 (has links)
One of the techniques to maintain software quality is code refactoring. But to take advantage of code refactoring, one must know where in code it must be applied. A catalog of bad smells in code has been proposed in the literature as a way to know when a certain piece of code should be refactored andwhat kind of refactoring should be applied. This catalog has been extended by other researchers. However, detecting such bad smells is far from trivial, mainly because of the lack of a precise and consensual definition of each Bad Smell. In this researchwork,we propose a solution to the problemof automatic detection of Bad Smells by means of the automatic discovery of metrics based rules. In order to evaluate the effectiveness of the technique, we used a dataset containing information on software metrics calculated for 4 open source software systems written in Java (ArgoUML, Eclipse,Mylyn and Rhino) and, by means of a Decision Tree induction algorithm, C5.0, we were capable of generating rules for the detection of the 12 Bad Smells that were analyzed in our study. Our experiments show that the generate rules performed very satisfactorily when tested against a separated test dataset. Furthermore, aiming to optimize the proposed approach, a Genetic Algorithm was implemented to preselect the most informative software metrics for each Bad Smell and we show that it is possible to reduce classification error in addition to, many times, reduce the size of the generated rules. When compared to existing Bad Smells detection tools, we show evidence that the proposed technique has advantages. / Uma das técnicas para a manutenção da qualidade de um software é o refatoramento do código, mas para que esta prática traga benefícios, é necessário saber em que partes do código ela deve ser aplicada. Um catálogo com os problemas estruturais mais comuns (Bad Smells) foi proposto na literatura como uma maneira de saber quando um fragmento de código deve ser refatorado, e que tipo de refatoramento deve ser aplicado. Este catálogo vem sendo estendido por outros pesquisadores. No entanto, a detecção desses Bad Smells, está longe de ser trivial, principalmente devido a falta de uma definição precisa e consensual de cada Bad Smell. Neste trabalho de pesquisa, propomos uma solução para o problema da detecção automática de Bad Smells por meio da descoberta automática de regras baseadas emmétricas de software. Para avaliar a efetividade da técnica, utilizamos um conjunto de dados com informações sobre métricas de software calculadas para 4 sistemas de software de código aberto programados emJava (ArgoUML, Eclipse,Mylyn e Rhino) e, por meio de umalgoritmo classificador, indutor de Árvores deDecisão, C5.0, fomos capazes de gerar regras para a detecção dos 12 Bad Smells analisados emnossos estudos. Nossos experimentos demonstramque regras geradas obtiveramumresultado bastante satisfatório quando testadas emumconjunto de dados à parte (conjunto de testes). Além disso, visando otimizar o desempenho da solução proposta, implementamos um Algoritmo Genético para pré-selecionar as métricas de software mais informativas para cada Bad Smell emostramos que é possível diminuir o erro de classificação alémde, muitas vezes, reduzir o tamanho das regras geradas. Em comparação com ferramentas existentes para detecção de Bad Smells, mostramos indícios de que a técnica proposta apresenta vantagens.
64

Resolução de estruturas de proteínas utilizando-se dados de RMN a partir de um algorítmo genético de múltiplos mínimos / Resolution of Protein Structures Using NMR Data by Means of a Genetic Algorithm of Multiple Minima

Marx Gomes Van der Linden 15 April 2009 (has links)
Proteínas são macromoléculas biológicas formadas por polímeros de aminoácidos, as quais estão envolvidas em todos os processos vitais dos organismos, compreendendo um amplo leque de funções. A espectropia por Ressonância Magnética Nuclear (RMN) é, ao lado da difração de raios-X em cristais, uma das duas principais técnicas experimentais capazes de permitir a elucidação da estrutura de proteínas em resolução atômica. A predição de estruturas protéicas utilizando informações experimentais de RMN é um problema de otimização global com restrições. O GAPF é um programa que utiliza um Algoritmo Genético (AG) desenvolvido para predição ab initio -- isto é, para determinação da estrutura de uma proteína apenas a partir do conhecimento de sua seqüência de aminoácidos -- utilizando uma abordagem de múltiplos mínimos, baseada em uma função aptidão derivada de um campo de força molecular clássico. Neste trabalho, é descrito o GAPF-NMR, uma versão derivada do GAPF, que utiliza restrições experimentais de RMN para auxiliar na busca pelas melhores estruturas protéicas correspondentes a uma seqüência dada. Cinco versões diferentes do algoritmo foram desenvolvidas, com diferentes variações na maneira como a função de energia é calculada ao longo da execução. O programa desenvolvido foi aplicado a um conjunto-teste de 7 proteínas de estrutura já conhecida e, para todas elas, foi capaz de chegar a uma estrutura com o enovelamento correto ou aproximado. Foi observado que as versões do algoritmo que aumentam progressivamente a região da proteína usada no cálculo de energia tiveram desempenho superior às demais, e que a abordagem de múltiplos mínimos foi importante para a obtenção de bons resultados. Os resultados foram comparados aos descritos para o GENFOLD -- que é, até o momento, a única implementação alternativa conhecida de um AG para o problema de predição de estruturas a partir de dados de RMN -- e a versão atual do GAPF-NMR se mostrou superior ao GENFOLD na determinação de duas das três proteínas do conjunto-teste deste. / Proteins are biological macromolecules comprised of amino acid polymers that play a wide range of biological roles involved in every process of living organisms. Together with X-ray diffraction, Nuclear Resonance Spectroscopy (NMR) is one of the two main experimental techniques that are capable of delivering atomic-level resolution of protein structures. Prediction of proteic structures using experimental information from NMR experiments is a global optimization problem with restraints. GAPF is a computer program that uses a Genetic Algorithm (GA) developed for ab initio prediction -- the determination of the structure of a protein from its amino acid sequence only -- using a multiple minima approach and a fitness function derived from a classic molecular force field. The work presented here describes GAPF-NMR, an alternate version of GAPF that uses experimental restraints from NMR to support the search for the best protein structures that correspond to a given sequence. Five different versions of the algorithm have been developed, each with a variation on how the energy function is calculated during the course of the program run. GAPF was tested on a test set comprised of 7 proteins with known structure and it was capable of achieving a correct or approximate fold for every one of these proteins. It was noted that the versions of the algorithm that progressively increase the area of the protein used in the energy function have performed better than the other versions, and that the multiple minima approach was important to the achievement of good results. Results were compared to those obtained by GENFOLD -- to the moment, the only known alternate implementation of a GA to the problem of protein structure prediction using NMR data -- and the current version of GAPF was shown to be superior to GENFOLD for two of the three proteins that compose its test set.
65

Explorando abordagens evolutivas para recuperação de imagens baseada em conteúdo / Exploiting evolutionary approaches for content-based image retrieval

Rocha, Reginaldo da 06 July 2016 (has links)
O processo de organização e recuperação de imagens apresenta inúmeros problemas a serem abordados, compreender o significado subjetivo de uma consulta visual por meio de parâmetros numéricos que podem ser extraídos e comparados por meio de um computador é um dos maiores desafios. A disparidade entre a comparação realizada pela máquina e o que de fato o ser humano interpreta de uma consulta visual é denominado de lacuna semântica. Diversos trabalhos na literatura abordam técnicas para diminuir essa disparidade. Nesse contexto, a abordagem de realimentação de relevância apresenta-se como um meio eficaz para capturar a intenção do usuário e reduzir a diferença entre os conceitos semânticos oriundos da percepção visual do usuário, bem como das características visuais de baixo nível extraídas automaticamente de uma imagem. Entretanto, a lacuna semântica ainda é um desafio a ser vencido. Por tal motivo, o presente trabalho tem por objetivo o estudo, análise e proposta de um arcabouço para recuperação de imagens o qual combina a realimentação de relevância unida a algoritmos evolutivos visando aproximar a expectativa do usuário em relação aos resultados retornados pela recuperação de imagens, por meio da captura de intenção do mesmo e posterior definição dos parâmetros mais adequados. Para tanto, a ideia principal do trabalho é inserir memória de aprendizado ao processo de recuperação de imagens por conteúdo, armazenando os dados da interação do usuário com o sistema em perfis, os quais posteriormente serão utilizados para prover respostas ao usuário de maneira personalizada, consequentemente, contribuindo para diminuição da lacuna semântica. / The process of organization and retrieval of images presents numerous problems to be addressed, to understand the subjective meaning of a visual query through numerical parameters that can be extracted and compared by a computer is a challenge. The disparity between the comparison performed by the machine and that in fact the human being interprets a visual query is known as semantic gap. Several studies in the literature techniques to address this gap. In this context, relevance feedback (RF) is an effective approach to capture user intent and reduce the difference between semantic concepts and the visual characteristics of an image. However, the semantic gap is still a challenge to be overcome, therefore, the present work aims to study, analysis and proposal for a new framework for image retrieval through relevance feedback combined with evolutionary algorithms aiming to bring the user’s expectation througth the results returned by the retrieval of images through the his intention and definition of the most appropriate parameters. To this end, the main idea of the work is to insert learning memory in a content-based image retrieval system for this by storing the user interaction data with the system profiles so that later these data are able to provide parameters for the system “learn” and respond to personalized user and need. Thus, contributing to reduction of existing semantic gap between the results of a retrieval operation and indeed expected images for a specific context, improving the efficiency and effectiveness of the retrieval process.
66

Aplicação da otimização por colônia de formigas ao problema de múltiplos caixeiros viajantes no atendimento comercial e emergencial em uma empresa de distribuição de energia elétrica / Applying the ant colony optimization to solve the multiple traveling salesmen problem to execution of commercial and emergency services in a electric power distribution company

Barbosa, Denilson Fagundes 03 December 2015 (has links)
O atendimento comercial e emergencial consiste basicamente na execução de serviços por equipes de eletricistas em diferentes pontos do sistema de distribuição de energia elétrica, compreendendo as atividades necessárias para a manutenção corretiva do sistema de distribuição e para a gestão comercial dos consumidores. Esta atividade reflete diretamente na qualidade das empresas de distribuição de energia, que procuram executar os serviços de forma a cumprir as metas da Agência Nacional de Energia Elétrica e a diminuir o tempo de resposta às solicitações dos clientes. A partir da análise do método manual utilizado em uma empresa real para designará os serviços às equipes, foi constatada a necessidade de uma metodologia computacional que utilize os dados disponíveis nos sistemas de informação da empresa para orientar o despacho de serviços, a fim de que mais serviços sejam atendidos pelas equipes no mesmo intervalo de tempo. O problema foi abordado em duas etapas. Na primeira etapa, foi configurado o Problema de Despacho Estático, no qual todos os serviços são conhecidos antes da otimização. Na segunda etapa, foi abordado o Problema de Despacho Dinâmico, no qual novos serviços surgem e são despachados às equipes durante o dia de trabalho, podendo ser emergenciais. Para o problema estático foram construídas instâncias do Problema de Múltiplos Caixeiros Viajantes a partir das posições dos serviços, que foram submetidas a dois algoritmos da Otimização por Colônia de Formigas. Para o problema dinâmico, foi desenvolvido um protótipo de um sistema para orientar o despacho dos serviços durante o dia de trabalho, denominado Sistema de Despacho Dinâmico, que aplica a metodologia estática até o surgimento de um novo serviço. Quando surge um novo serviço, o sistema reage de acordo com o tipo do serviço: se emergencial, é despachado imediatamente à equipe mais próxima; se comercial, uma nova instância é construída e novamente otimizada. A experimentação da metodologia estática foi realizada com 17 instâncias construídas a partir de dados reais, e reduziu em 44,43%, em média, a maior rota individual dos dias de trabalho utilizando custos temporais previstos para representação das instâncias. Os experimentos para a metodologia dinâmica, que simularam o surgimento de novos serviços durante o dia de trabalho a partir dos seus horários de despacho reais, reduziram em média 15,48% o custo total e 17,18% o custo da maior rota individual dos dias de trabalho. Esses resultados comprovam que tanto a metodologia estática quanto a dinâmica são capazes de equilibrar a carga de trabalho das equipes, possibilitando que mais serviços sejam executados no mesmo intervalo de tempo, melhorando o método atual de despacho de serviços na empresa. / The commercial and emergency service consist of the execution of service orders by electrician teams in different points of the electric power distribution system, comprising the activities required for corrective maintenance of the distribution system and the commercial management of consumers. This activity directly reflects in the quality of the power distribution companies, which seek to execute the services in order to meet the rules of the Brazilian National Agency of Electric Energy and to reduce the response time of customer requests. From the analysis of manual method used in an actual company to assign the services to the teams, we found the need for a computational method that uses the available data in the information systems of company to guide the dispatching services, in order that teams execute more services in the same time interval. We approach the problem in two steps. In the first step, we configure the Static Dispatch Problem, in which all services are known before the optimization. In the second step, we approach the Dynamic Dispatch Problem, in which new services arise and are dispatched to the teams during the workday and can be emergency orders. For the static problem, we build instances of the Multiple Traveling Salesmen Problem with the locations of orders, which were submitted to two Ant Colony Optimization algorithms. For the dynamic problem, we developed a system prototype called Dynamic Dispatch System to guide the dispatch of orders during the workday, which applies the static approach until the appearance of a new order. When a new order arises, the system reacts accordingly to the type of order: if it is an emergency order, then it is dispatched immediately to the nearest team; if it is a commercial order, a new instance is constructed and optimized again. For the static methodology, we performed experiments using 17 instances constructed from actual data. The experiments with the static methodology has reduces the largest route of single teams by an average of 44.43%, using predicted time costs for representation of instances. The experiments for the dynamic methodology, which simulated the appearance of new orders during the workday from actual dispatch times, reduced the total cost by 15.48% on average and the cost of larger individual routes by 17.18% on average. These results show that both the static and the dynamic methodologies are able to balance the workload of the teams, enabling that more services are performed in the same time interval, improving the current method of dispatching services in the company.
67

Detecção de região saliente em imagens usando dissimilaridade de cor e amostragem por pixeis aleatórios / Salient region detection in images using color dissimilariries in random sampled pixels

Paula, Nelson Garcia de 21 December 2015 (has links)
O objetivo deste trabalho é demonstrar e avaliar um algoritmo simples de estimação automática da região mais saliente em uma imagem, com possíveis usos em visão computacional. O algoritmo explora a relação entre dissimilaridades de cores na imagem e a região mais saliente da imagem. Este algoritmo não recorre a hipóteses prévias sobre o conteúdo das cenas processadas. Dissimilaridade entre pixeis é uma função informal da distância entre as cores de um pixel específico e outros pixeis de uma imagem. Examina-se a relação entre dissimilaridade de cor entre pixeis aleatórios da imagem e detecção de regiões salientes no conjunto de dados MSRA1K. Propomos um algoritmo simples para a detecção de regiões salientes através da dissimilaridade entre pares de pixeis amostrados aleatoriamente na imagem. Computa-se a dissimilaridade acumulando a distância entre as cores de cada pixel e uma amostra aleatória de n outros pixeis, no espaço de cores CIELAB. Um resultado relevante descoberto é que a dissimilaridade de cada pixel com uma amostra aleatória de tamanho unitário é suficiente para criar mapas de saliência funcionais quando combinada com um filtro da mediana, mantendo um desempenho comparável ao de outros algoritmos relacionados na área de detecção de regiões salientes. A métrica adotada para a análise de desempenho foi a curva de abrangência-precisão. As ideias deste trabalho foram inspiradas no mecanismo de atenção visual humana que é capaz de selecionar poucas regiões para concentrar a atenção, e que é um mecanismo biológico que a comunidade de visão computacional objetiva reproduzir. Também revisamos parte da história da atenção seletiva. / The purpose of this work is to demonstrate and to assess a simple algorithm for automatic estimation of the most salient region in an image, that have possible application in computer vision. The algorithm uses the connection between color dissimilarities in the image and the image’s most salient region. The algorithm also avoids using image priors. Pixel dissimilarity is an informal function of the distance of a specific pixel’s color to other pixels’ colors in an image. We examine the relation between pixel color dissimilarity and salient region detection on the MSRA1K image dataset. We propose a simple algorithm for salient region detection through random pixel color dissimilarity. We define dissimilarity by accumulating the distance between each pixel and a sample of n other random pixels, in the CIELAB color space. An important result is that random dissimilarity between each pixel and just another pixel (n = 1) is enough to create adequate saliency maps when combined with median filter, with competitive average performance if compared with other related methods in the saliency detection research field. The assessment was performed by means of precision-recall curves. This idea is inspired on the human attention mechanism that is able to choose few specific regions to focus on, a biological system that the computer vision community aims to emulate. We also review some of the history on this topic of selective attention.
68

Explorando abordagens evolutivas para recuperação de imagens baseada em conteúdo / Exploiting evolutionary approaches for content-based image retrieval

Rocha, Reginaldo da 06 July 2016 (has links)
O processo de organização e recuperação de imagens apresenta inúmeros problemas a serem abordados, compreender o significado subjetivo de uma consulta visual por meio de parâmetros numéricos que podem ser extraídos e comparados por meio de um computador é um dos maiores desafios. A disparidade entre a comparação realizada pela máquina e o que de fato o ser humano interpreta de uma consulta visual é denominado de lacuna semântica. Diversos trabalhos na literatura abordam técnicas para diminuir essa disparidade. Nesse contexto, a abordagem de realimentação de relevância apresenta-se como um meio eficaz para capturar a intenção do usuário e reduzir a diferença entre os conceitos semânticos oriundos da percepção visual do usuário, bem como das características visuais de baixo nível extraídas automaticamente de uma imagem. Entretanto, a lacuna semântica ainda é um desafio a ser vencido. Por tal motivo, o presente trabalho tem por objetivo o estudo, análise e proposta de um arcabouço para recuperação de imagens o qual combina a realimentação de relevância unida a algoritmos evolutivos visando aproximar a expectativa do usuário em relação aos resultados retornados pela recuperação de imagens, por meio da captura de intenção do mesmo e posterior definição dos parâmetros mais adequados. Para tanto, a ideia principal do trabalho é inserir memória de aprendizado ao processo de recuperação de imagens por conteúdo, armazenando os dados da interação do usuário com o sistema em perfis, os quais posteriormente serão utilizados para prover respostas ao usuário de maneira personalizada, consequentemente, contribuindo para diminuição da lacuna semântica. / The process of organization and retrieval of images presents numerous problems to be addressed, to understand the subjective meaning of a visual query through numerical parameters that can be extracted and compared by a computer is a challenge. The disparity between the comparison performed by the machine and that in fact the human being interprets a visual query is known as semantic gap. Several studies in the literature techniques to address this gap. In this context, relevance feedback (RF) is an effective approach to capture user intent and reduce the difference between semantic concepts and the visual characteristics of an image. However, the semantic gap is still a challenge to be overcome, therefore, the present work aims to study, analysis and proposal for a new framework for image retrieval through relevance feedback combined with evolutionary algorithms aiming to bring the user’s expectation througth the results returned by the retrieval of images through the his intention and definition of the most appropriate parameters. To this end, the main idea of the work is to insert learning memory in a content-based image retrieval system for this by storing the user interaction data with the system profiles so that later these data are able to provide parameters for the system “learn” and respond to personalized user and need. Thus, contributing to reduction of existing semantic gap between the results of a retrieval operation and indeed expected images for a specific context, improving the efficiency and effectiveness of the retrieval process.
69

Redes neurais: uma nova perspectiva na interpretação de informações ambientais / Neural network: a new perspective in environmental data analysis

Bruni, Antonio de Castro 13 December 2000 (has links)
As informações ambientais são o resultado de uma complexa interação entre as condições dos ambientes natural e antropogênico. Sobre os processos envolvidos, na maioria das vezes há pouca ou nenhuma informação e, freqüentemente há carência de dados. Face a esta problemática o emprego de uma técnica que minimize a necessidade de tais dados, que não tenha restrições operacionais para a execução dos cálculos ou ainda que possa ser aplicada quando não há muito conhecimento sobre o equacionamento do problema, presponta como uma alternativa estratégica para a interpretação das informações ambientais. As técnicas de Inteligência Artificial lidam com estas restrições e, face aos recursos de software [aplicativos] e hardware [máquinas] hoje disponíveis, tiveram suas aplicações viabilizadas em diversas áreas. Neste trabalho conceituamos além das Redes Neurais, os Sistemas Fuzzy [Nebulosos] e sua lógica específica, os Algoritmos Genéticos - seu fundamento e aplicações - e finalizando, os Sistemas Neuro-Fuzzy. As principais Técnicas Estatísticas utilizadas em recentes trabalhos para a interpretação de dados são listadas e, sempre que necessário, são conceituadas. Apresentamos as Redes Neurais Artificiais não só como uma alternativa às Técnicas Estatísticas e outras abordagens, mas sim na complementação destas no trabalho de análise de dados. O emprego de ambas as técnicas no equacionamento dos problemas na área ambiental, como mostramos, garante os melhores resultados. vi Nas Ciências Atmosféricas apresentamos aplicações de Redes Neurais contemplando: o processo de reconhecimento de partículas, a identificação de partículas e de fontes de poluição atmosférica, no Balanço Químico de Massas, na interpretação de dados, na previsão de concentrações de poluentes e na análise de riscos à saúde. Os resultados das aplicações evidenciam o grande potencial que a técnica de Redes Neurais oferece para esta ciência. Face as características de distribuição espacial e temporal da poluição do ar pesquisamos e encontramos uma topologia de Rede Neural que se ajusta ao objetivo de previsão das concentrações horárias do monóxido de carbono na a cidade de São Paulo. Uma proposta de Sistema Inteligente baseado na teoria dos sistemas Fuzzy-Neurais também é apresentada para o mesmo problema. Uma relação dos aplicativos comerciais disponíveis no mercado para trabalhar com esta tecnologia é apresentada ao final. / Neural Networks techniques are presented in an Artificial Intelligence context including: Fuzzy Systems, Genetic Algorithms and Neuro-Fuzzy Systems. The Neural Networks topologies and the learning procedures are presented too. The approach we used to introduce the concepts was to show the similarities with the Natural Neuron. We selected and presented some usual Statistical Techniques currently used in air pollution data analysis and, always if it is available, a comparison with the Artificial Neural Networks. We observed that almost always the Neural Network offers better results than other approaches, but when both techniques are used, one complement another. We selected Neural Networks applications in air pollution including: particle identification process, particle and atmospheric pollution source identification, Chemical Mass Balance techniques, data analysis and interpretation, forecasting of atmospheric pollutant concentrations and health risk analysis. The Multilayer perceptron is the most common topology applied. The air pollution problem is spatio-temporal and a Neural Network topology, that take it into account, is suggested to forecast carbon monoxide concentrations at São Paulo City, Brazil. A Fuzzy-Neuro system to predict carbon monoxide critical episodes is proposed too. A list of commercial software available to work with this technology is presented to encourage future applications.
70

Métodos mono e multiobjetivo para o problema de escalonamento de técnicos de campo. / Mono and multiobjective methods for the field technician scheduling problem.

Damm, Ricardo de Brito 28 March 2016 (has links)
Um tema pouco estudado na literatura, mas frequentemente encontrado por empresas prestadoras de serviço, é o Problema de Escalonamento de Técnicos de Campos (Field Technician Scheduling Problem). O problema consiste em associar um número de tarefas - em diversos locais, com diferentes prioridades e com janelas de tempo - a uma quantidade de técnicos - com diferentes horários de expediente e com habilidades distintas - que saem no início do horário de trabalho da sede da empresa, para onde devem retornar antes do fim do expediente. Cada tarefa é atendida por um único técnico. Esse problema é estudado neste trabalho. A primeira parte do trabalho apresenta um modelo de programação linear inteira mista (PLIM) e, dada a complexidade do problema, heurísticas construtivas e meta-heurísticas foram desenvolvidas. Na função objetivo, procura-se principalmente maximizar o número ponderado de tarefas executadas em um dia de trabalho, de acordo com as suas prioridades. Em linhas gerais, as heurísticas construtivas ordenam as tarefas de acordo com um critério pré-estabelecido e, em seguida, designam cada uma a um dos técnicos capazes de realiza-la sem violar as restrições do problema. Tendo em conta o bom desempenho obtido em outros problemas semelhantes, foi adotado um Algoritmo Genético denominado Biased Random-Key Genetic Algorithms (BRKGA), que utiliza chaves aleatórias para codificar e decodificar as soluções. Codificadores e decodificadores adaptados ao problema foram desenvolvidos e testes computacionais são apresentados. As soluções obtidas em problemas de pequenas dimensões são comparadas com as soluções ótimas conhecidas e, para aprimorar a avaliação do desempenho nas instâncias médias e grandes, quatro procedimentos para obter limitantes superiores foram propostos. Testes computacionais foram realizados em 1040 instâncias. O BRKGA encontrou 99% das 238 soluções ótimas conhecidas e, nas 720 instâncias de dimensões médias e grandes, ficou em média a 3,8% dos limitantes superiores. As heurísticas construtivas superaram uma heurística construtiva da literatura em 90% das instâncias. A segunda parte do trabalho apresenta uma nova abordagem para o Problema de Escalonamento de Técnicos de Campo: um modelo biobjetivo, onde uma segunda função objetivo buscará que as tarefas prioritárias sejam realizadas o mais cedo possível. Uma versão multiobjectivo do BRKGA foi desenvolvida, considerando diversas estratégias para classificar a população do algoritmo e escolher as melhores soluções (estratégias de elitismo). Codificadores e decodificadores foram criados para o problema multiobjectivo. Os resultados computacionais obtidos são comparados com os resultados de um Algoritmo Genético conhecido na literatura, o Nondominated Sorting Genetic Algorithm II (NSGA II). Para instâncias de pequenas dimensões, os resultados da meta-heurística proposta também são comparados com a fronteira ótima de Pareto de 234 instâncias, obtidas por enumeração completa. Em média, o BRKGA multiobjectivo encontrou 94% das soluções da fronteira ótima de Pareto e, nas instâncias médias e grandes, superou o desempenho do NSGA-II nas medidas de avaliação adotadas (porcentagem de soluções eficientes, hipervolume, indicador epsílon e cobertura). / An important topic in service companies, but little studied until now, is the field technician scheduling problem. In this problem, technicians have to execute a set of jobs or service tasks. Technicians have different skills and working hours. Tasks are in different locations within a city, with different time windows, priorities, and processing times. Each task is executed by only one technician. This problem is addressed in this thesis. The first part of the research presents the mixed integer linear programming model (MILP) and, due to the complexity of this problem, constructive heuristics and metaheuristics were proposed. The objective function is to maximize the sum of the weighted performed tasks in a day, based on the priority of tasks. In general terms, in the proposed constructive heuristics, jobs are ordered according to a criterion and, after that, tasks are assigned to technicians without violating constraints. A Genetic Algorithm (the Biases Randon Key Genetic Algorithm - -RKGA) is applied to the problem, based on its success in similar problems; the BRKGA uses random keys and a decoder transforms each chromosome of the Genetic Algorithm into a feasible solution of the problem. Decoders and encoders adapted to the problem were developed and computational tests are presented. A comparison between the solutions of the heuristic methods and optimal solutions values was also conducted for small instances and, to analyze medium and large instances, four upper bound models were proposed. Computational experiments with 1040 instances were carried out. The BRKGA reached 99% of the 238 optimal solutions and, for 720 medium and large instances, the average upper bound gap was 3,8%. Constructive heuristics overcame a heuristic of the literature in 90% of the instances. The second part of this research presents a new approach of the Field Technician Scheduling Problem: a multiobjective model, with a second objective function to execute the priority tasks as soon as possible. A multiobjective BRKGA was developed, with different strategies to classify the Genetic Algorithm population and to select the elite solutions (elite strategies). Decoders and encoders were developed for the multiobjective problem too. The results were compared with a known Genetic Algorithm, the Nondominated Sorting Genetic Algorithm II (NSGA II). For 234 small instances, the results were compared with the Pareto optimal solutions, obtained by complete enumeration. On average, the BRKGA found 94% of the Pareto optimal solutions and, for 720 medium and large instances, outperformed the NSGA-II by means of the measures adopted (percentage of efficient solutions, hypervolume, epsilon and coverage).

Page generated in 0.056 seconds