• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2841
  • 574
  • 242
  • 101
  • 90
  • 90
  • 88
  • 47
  • 45
  • 45
  • 45
  • 43
  • 14
  • 2
  • 1
  • Tagged with
  • 3720
  • 1131
  • 945
  • 592
  • 587
  • 577
  • 525
  • 495
  • 466
  • 348
  • 308
  • 286
  • 279
  • 259
  • 249
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
571

Implementación de una Biblioteca de Triangulación de Polígonos Basada en el Algoritmo LEPP Delaunay

Valenzuela Salvatierra, Pedro Daniel January 2010 (has links)
Las mallas de triángulos son ampliamente utilizadas en aplicaciones científicas e ingeniería. Una triangulación de un conjunto de puntos puede construirse utilizando diversos algoritmos, pero usualmente se prefiere aquellos que además de ser eficientes en tiempo y espacio, entreguen triángulos cuyo menor ángulo se encuentre sobre cierta cota. La triangulación de Delaunay de un conjunto de puntos maximiza el ángulo mínimo de todos los triángulos de la triangulación. Sin embargo, el ángulo mínimo en una triangulación de Delaunay puede ser menor que el valor requerido en una aplicación dada. Existen métodos de refinamiento de triangulaciones basados en la inserción de nuevos puntos en la malla que incrementalmente mejoran el ángulo mínimo de una triangulación. De especial interés es la familia de métodos de refinamiento basados LEPP, que recorren los triángulos de una malla a través de las aristas más largas de los triángulos. El uso de los métodos de refinamiento basados en LEPP-Delaunay en aplicaciones, requiere la implementación de estructuras de datos para la representación de la malla, primitivas geométricas, algoritmos de triangulación y algoritmos de manipulación de los datos. El costo de escribir una aplicación desde cero se eleva al considerar los requisitos anteriormente mencionados. El presente informe describe la implementación de una biblioteca reusable y general que ofrece la funcionalidad de los métodos LEPP-Delaunay. De esta manera, es posible crear aplicaciones que utilicen dichos métodos sin la necesidad de invertir tiempo de desarrollo en los algoritmos y estructuras de datos asociadas. En otras palabras, el foco del desarrollo puede estar completamente en la aplicación de los métodos LEPP-Delaunay y no en sus detalles de implementación. La biblioteca LEPP-Delaunay fue construida utilizando las estructuras de datos de OpenMesh, proyecto que ofrece una implementación extensible y flexible de la representación de una malla en base a la estructura de datos halfedge. Para mostrar las capacidades de la biblioteca LEPP-Delaunay se implementó una herramienta gráfica para el análisis de mallas que hace uso de la funcionalidad provista por la biblioteca LEPP-Delaunay.
572

Analise de desempenho de um sistema híbrido de geração de energia solar-eólico-diesel considerando variações probabilísticas da carga e dos recursos renováveis /

Roberts, Justo José. January 2012 (has links)
Orientador: Agnelo Marotta Cassula / Coorientador: Jose Luz Silveira / Banca: Edson Costa Bortoni / Banca: Celso Eduardo Tuna / Resumo: Sistemas autônomos baseados em energias renováveis se apresentam como uma solução alternativa aos problemas de eletrificação em regiões afastadas da rede elétrica. O abastecimento de energia de forma autônoma se refere ao fornecimento de eletricidade de forma independente da rede de distribuição interligada. Dentre as fontes renováveis a solar fotovoltaica e a eólica, além de possuírem vantagens que as tornam adequadas a diversos tipos de aplicações, podem ser ainda utilizadas de forma conjunta, com ou sem a presença de outras fontes, constituindo o que se conhece por sistemas híbridos de geração de energia. Em este trabalho se propõe uma metodologia diferente para avaliar o desempenho de um Sistema Híbrido de Geração de Energia (SHGE) solar-eólico-diesel considerando variações probabilísticas da carga e dos recursos renováveis. Foi desenvolvido um algoritmo que simula o funcionamento típico do sistema utilizando uma base de tempo de uma hora e, de um intervalo para outro, se consideram variações estocásticas da carga e dos recursos renováveis (vento, radiação solar e temperatura). Em ambos os casos, a aleatoriedade da ocorrência dos eventos é modelada com base no método de Simulação de Monte Carlo seqüencial. A metodologia desenvolvida para a avaliação do SHGE foi aplicada em um estudo de caso como dados reais para os recursos renováveis e para a demanda, em um local pré-selecionado, para duas configurações de sistema híbrido, SGHE solar-eólico-diesel e SHGE solar-eólico. O método de simulação proposto mostrou-se como uma ferramenta interessante para tomada a de decisões e para a ponderação de possíveis cenários de funcionamento. A apresentação dos resultados em forma de histograma permitiu... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: Off-grid power systems based on renewable energy resources are presented as an alternative solution for electrification problems in remote isolated areas. Off-grid power generation refers to the electricity supply, regardless of the energy distribution network. Among the renewable energy sources available nowadays, the solar photovoltaic and the wind power not only have the advantages that make them suitable for various types of applications, but also can be used jointly with or without the presence of other sources, constituting what is known as hybrid power generation systems. This work proposes a different methodology to evaluate the performance of a solar-wind-diesel Hybrid Power Generation System (HPGS) considering probabilistic variations of load and renewable resources. An algorithm that simulates the typical operation of the system was developed using a periodically time lapse of an hour. Load and renewable resources (wind, solar radiation and temperature) stochastic variations are considered and analyzed hourly. In both cases, the event occurrence randomness is modeled using the Sequential Monte Carlo simulation method. The proposed methodology for assessing the performance of a HPGS was applied to a case study using actual data for the renewable resources and the load, in a pre-selected location. Two different hybrid system configurations were evaluated, a solar-wind-diesel HPGS and a solar-wind HPGS. The performance evaluation method proved to be an interesting tool for decision making and for pondering possible operating scenarios. The results presentation as histogram graphics allowed estimating the probability occurrence of unusual possible scenarios. The application of the proposed methodology in this work presented satisfactory results. For both... (Complete abstract click electronic access below) / Mestre
573

Um modelo de unit commitment hidrotérmico para o ambiente de mercados de energia /

Luciano, Edson José Rezende. January 2010 (has links)
Resumo: Este projeto tem como objetivo descrever, implementar e avaliar um modelo de Unit Commitment (UC) hidrotérmico para o ambiente de mercados de energia. O modelo deve considerar aspectos que têm sido negligenciados na abordagem atualmente vigente no Brasil, ou seja, o modelo deve apresentar as seguintes contribuições: i) a discretização do problema deve ser feita em base horária e não semanal, de modo a permitir o estabelecimento de um mercado de curtíssimo prazo efetivo; ii) o modelo deve levar em conta os custos de partida/parada de máquinas, comparando a solução do modelo proposta com o modelo em que essses custos não são considerados; iii) as inter-relações entre os mercados pool e bilateral são descritas de forma explícita em um único problema de otimização de UC; iv) a inserção dos custos de oportunidade hidráulica propostos no âmbito desse trabalho na função de custos / Abstract: This project aims to describe, implement and evaluate a model of Unit Commitment (UC) for the hydrothermal environment of energy markets. The model takes into account aspects that have been neglected in the approach currently used in Brazil, and present the following contributions: i) discretization of the problem is performed in an hourly basis, instead of the weekly-based approach currently used, to allow the establishment of an effective market for short term generation planning; ii) the model takes into account unit start-up and shut down costs; the outcomes of the proposed model are compared with those of a model in which these costs are not considered; iii) the interrelationships between pool and bilateral markets are described explicity within a single optimization problem in the proposed UC model; iv) the inclusion of opportunity costs associated with hydraulic utility, proposed in the context of this research / Orientador: Leonardo Nepomuceno / Coorientador: Paulo Sérgio da Silva / Banca: Eduardo Nobuhiro Asada / Banca: Antonio Roberto Balbo / Mestre
574

Modelo de detección de agresiones verbales, por medio de algoritmos de Machine Learning

Bugueño Sáez, Víctor Gabriel January 2017 (has links)
Ingeniero Civil Industrial / El presente trabajo tiene como objetivo detectar evidencias de agresiones verbales en archivos de audio. Al respecto se identifican dos clases: Conversaciones normales y Agresión verbal. Para lograr el objetivo, se aplican 4 métodos. El modelo utilizado por Vincenzo Carletti et.al [7], en donde se propone un enfoque para la detección de eventos de audio basados en el paradigma de "bolsa de palabras" (del inglés, Bag of Words), una variación de este modelo utilizando features de la herramienta openSMILE, Support vector machine alimentado por ambas clases y finalmente regresión lineal alimentada por ambas clases. Al no tener bases de datos abiertas con las clases que se desean analizar, se procedió a construir una base de datos propia recolectando archivos de audio de películas y de internet. De esta manera se obtuvo 809 archivos de audio de 3 segundos de ambas clases de interés y 145 archivos de audio de pocos milisegundos para alimentar la primera etapa del modelo de Vincenzo Carletti. Se utilizó el software Audacity para transformar los archivos de audio y para extraer el audio de registros audiovisuales de películas. Se utilizó el software Rstudio para el procesamiento general. En este trabajo se utilizaron 11 features para realizar la clasificación en el modelo original de Vincenzo Carletti. El modelo de Vincenzo, se repitió usando 148 features provenientes de la herramienta openSMILE. Estas mismas features fueron utilizadas para ejecutar los algoritmos de Support vector machine y Regresión lineal. Los resultados obtenidos fueron de 86.27% de exactitud para el modelo con features originales de Vincenzo Carletti, 79.32% de exactitud para el modelo de Vincenzo utilizando 148 features de openSMILE, 98.19% para algoritmo Support vector machine y 97.74% de exactitud para el algoritmo de regresión lineal. Los resultados arrojaron resultados prometedores, respecto a la identificación de agresiones verbales, lo que puede permitir el desarrollo de aplicaciones que las puedan identificar monitoreando en tiempo real y que permitan detectar alguna situación de peligro de una persona en condición de vulnerabilidad. / Este trabajo ha sido financiado por el Proyecto Fondecyt 11130252
575

Mejoramiento de la clasificación funcional de enzimas usando aprendizaje de máquinas

Gómez Padilla, David Ignacio January 2017 (has links)
Ingeniero Civil Eléctrico / Los avances tecnológicos han permitido secuenciar el ADN de un organismo de manera mucho más accesible que en el pasado. Esto ha generado grandes volúmenes de información; en particular, de los principales productos génicos, las proteínas. Sin embargo, solo se ha logrado asignar funcionalidad a una centésima parte de las proteínas disponibles, ya que ello se realiza de forma experimental, lo cual es muy laborioso y lento. Es por ello que se han desarrollado un gran número de métodos computacionales que buscan predecir la funcionalidad de las proteínas. Dentro de ellos, BLAST (Basic Local Alignment Search Tool) ha sido el más usado, el cual asigna funcionalidad basándose en la noción de homología: proteínas con secuencias aminoacídicas similares tendrían funciones similares. Sin embargo se ha visto que proteínas con secuencias muy distintas pueden tener la misma funcionalidad, y variaciones en la secuencia de una proteína pueden tener grandes impactos en su función. Debido a las limitaciones de la inferencia de funcionalidad basado en homología, numerosos acercamientos basados en aprendizaje de máquinas han sido propuestos como alternativas. CAFA (Critical Assesment of Functional Annotation) es una competencia que busca evaluar las distintas alternativas que han surgido. Este desafío ha arrojado que no existe un método que sobrepase claramente a los demás, además de probar que si bien las alternativas propuestas sobrepasan el rendimiento de BLAST, este último aún sigue teniendo efectividad. En el presente trabajo se propone BLAST-KNN: un algoritmo que ensambla técnicas de aprendizaje de máquinas junto a BLAST para mejorar el proceso de clasificación funcional en enzimas, un subconjunto de las proteínas, utilizando la nomenclatura de los números EC (Enzyme Commission) como etiquetas. De esta manera se aprovecha la efectividad de BLAST y se intentan corregir aquellas clases en que este no tiene un rendimiento perfecto. Se incorpora el uso del programa InterProScan como extractor de características para representar las proteínas, lo que entrega la ventaja de tener información basada no solo en homología. Se seleccionan las características más relevantes usando técnicas de teoría de la información. Usando los datos disponible en SwissProt que cuentan con sus cuatro dígitos EC asignados, se logran mejorar 835 clases en términos del puntaje F1 obtenido solo por BLAST, lo que representa el 55.48% de las clases en que BLAST no tiene un rendimiento perfecto. Además, se muestra un predominio de BLAST-KNN frente a BLAST al evaluar clases con más de un número EC asignado, mejorando el 60.3% de los casos. Por otro lado, se valida PANTHER, CDD y los descriptores propios de InterPro (IPR) como fuente importante de información al momento de predecir números EC a nuevas enzimas. Las limitantes del algoritmo propuesto están en la poca información por clase disponible, teniendo una distribución no uniforme en el número de muestras por etiquetas, lo que fuerza a utilizar algoritmos simples para clasificar. Se propone mejorar la representación de las enzimas incorporando nuevas características, así como extender el clasificador a uno que considere enzimas que no tengan los cuatro dígitos EC asignados. / Este trabajo ha sido parcialmente financiado por Conicyt 11150107
576

Conceito matemático X algoritmo : construção do conhecimento ou simples mecanização?

Modtkoski, Heloisa Milena January 2016 (has links)
Orientadora: Profª. Drª. Ettiéne Cordeiro Guérios / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Educação, Programa de Pós-Graduação em Educação. Defesa: Curitiba, 23/03/2016 / Inclui referências : f. 153-158 / Resumo: O presente estudo refere-se aos resultados da pesquisa qualitativa de natureza interpretativa, cujo objetivo é identificar se os alunos de uma escola do Ensino Fundamental do Município de Curitiba compreendem conceitualmente o conteúdo programático de equações polinomiais de 1º e 2º graus ou se as resolvem mecanicamente pela compreensão apenas de seu algoritmo. Os instrumentos para a coleta de dados são listas de exercícios, sendo uma de aplicação direta de equações de 1º e 2º graus e outra de problemas relativos às mesmas equações e foram construídos tendo por base elementos teóricos organizados nos eixos denominados como: construção do conhecimento, conceito matemático e algoritmo, resolução de problemas e a álgebra escolar. As categorias para análise dos dados são provenientes do conteúdo teórico referente ao campo algébrico e do nosso referencial teórico. Analisamos os dados em função das seguintes categorias provisórias organizadas a partir de Bernard e Cohen (1995) para as equações de 1º grau: método de desfazer, inversos operacionais, reversibilidade de um processo, passos invertíveis, resoluções aritméticas e resoluções algébricas. Já para as equações de 2º grau as categorias são: completamento de quadrados, fórmula de Bhaskara e relação entre os coeficientes. Os instrumentos foram aplicados a 29 alunos, seguido de entrevistas com alguns deles, conforme as resoluções apresentadas. Após esta aplicação, os dados empíricos foram analisados à luz da Teoria da Aprendizagem Significativa de David Ausubel, de elementos da Teoria da Complexidade na perspectiva de Edgar Morin (2010), do conceito de experiência de Jorge Larrosa (2002) e de Ettiène Guérios (2002), em que fragmentação, relação parte-todo e circularidade-linearidade constituíram pontos de aproximação interpretativa entre as categorias. Palavras-chave: Conceito matemático. Algoritmo. Construção do conhecimento. Mecanização. / Abstract: This study refers to the results of a qualitative research of interpretative nature, which aims to identify whether students understand conceptually the syllabus polynomial equations of 1st and 2nd degrees or mechanically solved by only understanding their algorithm. The instruments for data collection are lists of exercises, being a direct application of equations 1st and 2nd degrees and other problems related to the same equations and were built based on theoretical elements arranged on the axes called construction of knowledge, mathematical concept and algorithm, problem solving and school algebra. The categories for data analysis are arising from two circumstances: from the theoretical framework of the algebraic field and our theoretical references. We analyzed the data according to the following provisional categories arranged from Bernard and Cohen (1995) for the 1st degree equations: method of undo, operational inverse, reversibility of a process, invertible steps, arithmetic resolutions and algebric resolutions. For the equations of 2nd degree, the categories are: completing the square, Bhaskara formula and relation between the coefficients. After validation, the tools were applied to 29 students, followed by interviews with someone as the resolutions presented. After this application, the empirical data were analyzed according to the Theory of Meaningful Learning from David Ausubel, Theory of Complexity from Edgar Morin (2010), the concept of experience from Jorge Larrosa (2002) and Ettiene Guérios (2002), when fragmentation, part-whole relation and circularity-linearity constituted points of interpretive approach between the categories. Key-words: Mathematical concept. Algorithm. Knowledge contruction. Mechanization.
577

Alinhamento automático de imagens de profundidade para modelagem 3D de objetos

Gomes, Leonardo 09 December 2011 (has links)
Resumo: No processo de modelagem 3D de objetos a partir de imagens, o pré-alinhamento é a etapa responsável por determinar uma aproximação da transformação rígida que alinha, em um mesmo sistema de coordenadas, duas superfícies vistas do objeto, representadas por imagens de profundidade (range images). Na área de preservação digital de acervos naturais e culturais, foco deste trabalho, a delidade tanto da geometria quanto da textura do modelo 3D nal é o principal requisito. Entretanto, investir em um sistema prático e ágil para modelagem 3D também é importante para viabilizar sua aplicação sobre acervos com diferentes características. Neste sentido, o estudo e implementação de métodos de pré-alinhamento de imagens de profundidade mais efetivos podem contribuir signicativamente na construção de sistemas mais robustos e apropriados para a área. Este trabalho apresenta um estudo sobre os métodos estado da arte de pré-alinhamento e compara-os com uma nova abordagem esenvolvida, mais efetiva para o problema. A abordagem proposta é baseada em pontos aracterísticos, o que se mostrou bastante apropriado para o cenário avaliado. Dentre as principais contribuições do presente trabalho está a aplicação e substituição da etapa de pré-alinhamento manual utilizada no pipeline de modelagem 3D desenvolvido no grupo de pesquisa IMAGO.
578

Alocação ótima de dispositivos limitadores de corrente de curto-circuito usando representação no nível de subestação

Duarte, Isabel Schvabe 14 June 2013 (has links)
Resumo: O constante crescimento do parque gerador e transmissor exige a realização contínua do cálculo.dos níveis de corrente de curto-circuito que circulam pelos disjuntores instalados nas subestações a fim de se sinalizar os que estão superadosNo entanto, as metodologias existentes para cálculo das correntes de curto-circuito utilizam o convencional modelo barra-ramo que impede a análise dos componentes internos às subestações, e que quando necessários devem ser feitos a parte, num processo dispendioso de tempo e de precisão. Para contornar estas questões, este trabalho propõe uma extensão da tradicional formulação matemática para cálculo de curto-circuito, de forma a torná-la capaz de processar redes modeladas no nível de subestação. Visando obter soluções para contornar as superações dos disjuntores internos às subestações, o trabalho também apresenta uma ferramenta para a alocação otimizada de dispositivos limitadores de corrente de curto-circuito - DLCCs, que são alocados neste trabalho através da utilização dos Algoritmos Genéticos Multiobjetivos - AGM, juntamente com a formulação do cálculo de curto-circuito no nível de subestação. Assim, o trabalho tem a capacidade de sinalizar os disjuntores superados e de informar a dimensão e disposição dos DLCCs para solucionar o problema de superação destes disjuntores.Esta metodologia foi testada no sistema de 5 barras e no sistema real de 291 barras, referente ao sistema elétrico do estado do Paraná.
579

Método Grid-Quadtree para seleção de parâmetros do algoritmo support vector classification (SVC)

Beltrami, Monica January 2016 (has links)
Orientador : Prof. Dr. Arinei Carlos Lindbeck da Silva / Tese (doutorado) - Universidade Federal do Paraná, Setor de Tecnologia, Programa de Pós-Graduação em Métodos Numéricos em Engenharia. Defesa: Curitiba, 01/06/2016 / Inclui referências : f. 143-149 / Área de concentração : Programação matemática / Resumo: O algoritmo Support Vector Classification (SVC) é uma técnica de reconhecimento de padrões, cuja eficiência depende da seleção de seus parâmetros: constante de regularização C, função kernel e seus respectivos parâmetros. A escolha equivocada dessas variáveis impacta diretamente na performance do algoritmo, acarretando em fenômenos indesejáveis como o overfitting e o underfitting. O problema que estuda a procura de parâmetros ótimos para o SVC, em relação às suas medidas de desempenho, é denominado seleção de modelos do SVC. Em virtude do amplo domínio de convergência do kernel gaussiano, a maioria dos métodos destinados a solucionar esse problema concentra-se na seleção da constante C e do parâmetro ? do kernel gaussiano. Dentre esses métodos, a busca por grid é um dos de maior destaque devido à sua simplicidade e bons resultados. Contudo, por avaliar todas as combinações de parâmetros (C, ?) dentre o seu espaço de busca, a mesma necessita de muito tempo de processamento, tornando-se impraticável para avaliação de grandes conjuntos de dados. Desta forma, o objetivo deste trabalho é propor um método de seleção de parâmetros do SVC, usando o kernel gaussiano, que combine a técnica quadtree à busca por grid, para reduzir o número de operações efetuadas pelo grid e diminuir o seu custo computacional. A ideia fundamental é empregar a quadtree para desenhar a boa região de parâmetros, evitando avaliações desnecessárias de parâmetros situados nas áreas de underfitting e overfitting. Para isso, desenvolveu-se o método grid-quadtree (GQ), utilizando-se a linguagem de programação VB.net em conjunto com os softwares da biblioteca LIBSVM. Na execução do GQ, realizou-se o balanceamento da quadtree e criou-se um procedimento denominado refinamento, que permitiu delinear a curva de erro de generalização de parâmetros. Para validar o método proposto, empregaram-se vinte bases de dados referência na área de classificação, as quais foram separadas em dois grupos. Os resultados obtidos pelo GQ foram comparados com os da tradicional busca por grid (BG) levando-se em conta o número de operações executadas por ambos os métodos, a taxa de validação cruzada (VC) e o número de vetores suporte (VS) associados aos parâmetros encontrados e a acurácia do SVC na predição dos conjuntos de teste. A partir das análises realizadas, constatou-se que o GQ foi capaz de encontrar parâmetros de excelente qualidade, com altas taxas VC e baixas quantidades de VS, reduzindo em média, pelo menos, 78,8124% das operações da BG para o grupo 1 de dados e de 71,7172% a 88,7052% para o grupo 2. Essa diminuição na quantidade de cálculos efetuados pelo quadtree resultou em uma economia de horas de processamento. Além disso, em 11 das 20 bases estudadas a acurácia do SVC-GQ foi superior à do SVC-BG e para quatro delas igual. Isso mostra que o GQ é capaz de encontrar parâmetros melhores ou tão bons quanto os da BG executando muito menos operações. Palavras-chave: Seleção de modelos do SVC. Kernel gaussiano. Quadtree. Redução de operações. / Abstract: The Support Vector Classification (SVC) algorithm is a pattern recognition technique, whose efficiency depends on its parameters selection: the penalty constant C, the kernel function and its own parameters. A wrong choice of these variables values directly impacts on the algorithm performance, leading to undesirable phenomena such as the overfitting and the underfitting. The task of searching for optimal parameters with respect to performance measures is called SVC model selection problem. Due to the Gaussian kernel wide convergence domain, many model selection approaches focus in determine the constant C and the Gaussian kernel ? parameter. Among these, the grid search is one of the highlights due to its easiest way and high performance. However, since it evaluates all parameters combinations (C, ?) on the search space, it requires high computational time and becomes impractical for large data sets evaluation. Thus, the aim of this thesis is to propose a SVC model selection method, using the Gaussian kernel, which integrates the quadtree technique with the grid search to reduce the number of operations performed by the grid and its computational cost. The main idea of this study is to use the quadtree to determine the good parameters region, neglecting the evaluation of unnecessary parameters located in the underfitting and the overfitting areas. In this regard, it was developed the grid-quadtree (GQ) method, which was implemented on VB.net development environment and that also uses the software of the LIBSVM library. In the GQ execution, it was considered the balanced quadtree and it was created a refinement procedure, that allowed to delineate the parameters generalization error curve. In order to validate the proposed method, twenty benchmark classification data set were used, which were separated into two groups. The results obtained via GQ were compared with the traditional grid search (GS) ones, considering the number of operations performed by both methods, the cross-validation rate (CV) and the number of support vectors (SV) associated to the selected parameters, and the SVC accuracy in the test set. Based on this analyzes, it was concluded that GQ was able to find excellent parameters, with high CV rates and few SV, achieving an average reduction of at least 78,8124% on GS operations for group 1 data and from 71,7172% to 88,7052% for group 2. The decrease in the amount of calculations performed by the quadtree lead to savings on the computational time. Furthermore, the SVC-GQ accuracy was superior than SVC-GS in 11 of the 20 studied bases and equal in four of them. These results demonstrate that GQ is able to find better or as good as parameters than BG, but executing much less operations. Key words: SVC Model Selection. Gaussian kernel. Quadtree. Reduction Operations
580

Análise do impacto das estratégias de seleção de tradicionais MOEAs EM MOEDAs : CMA-ES E UMDA

Strickler, Andrei Strickler January 2017 (has links)
Orientador : Profª. Drª. Aurora Trinidad Ramirez Pozo / Coorientador : Prof. Dr. Roberto Santana Hermida / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 20/02/2017 / Inclui referências : f. 45-50 / Área de concentração: Ciência da computação / Resumo: Pesquisas apontam que, em problemas de otimização mono-objetivo, a capacidade de busca dos algoritmos de estimação de distribuição é fortemente influenciada pelo método de seleção que implementam. O mesmo se observa em problema de otimização multi-objetivo, isto é, os métodos de seleção e as estratégias de substituição desempenham papel importante. No entanto, esta relação entre modelos probabilísticos e os métodos de seleção não tem sido alvo de pesquisas ainda. Neste trabalho, é abordada esta questão avaliando algumas variantes de estratégias de seleção e diferentes modelos probabilísticos. Isto permite detectar possíveis interações entre esses dois componentes dos algoritmos evolutivos multi-objetivo. Especialmente, foram utilizadas as estratégias de seleção utilizadas nos algoritmos NSGA-II, SPEA2 e IBEA, e os modelos probabilísticos implementados como parte do UMDA e CMA-ES, bem como o operador de crossover (SBX). Dois conjuntos de problemas de benchmark para o contexto multi-objetivo com diferentes características são usados para a análise, são eles: problemas da família DTLZ e da ferramenta COCO recentemente introduzida. Os resultados mostram que utilizar modelos probabilísticos tem uma vantagem sobre o operador genético tradicional, desconsiderando o método de seleção aplicado. Entretanto, os resultados obtidos também mostram que alguns métodos de seleção apresentam um melhor desempenho quando aplicados em conjunto com MOEDAs. Palavras-chave: Algoritmos de Estimação de Distribuição, Problemas de Otimização Multi- Objetivo, Algoritmos Evolutivos Multi-Objetivo, Métodos de Seleção. / Abstract: Researches point that, in mono-objective optimization problems, the search capability of estimation of distribution algorithms is strongly influenced by the selection method they implement. The same is true in multi-objective optimization problem, that is, the selection methods and replacement strategies play an important role. However, this relationship between probabilistic models and selection methods has not been the subject of research yet. In this work, this question is approached by evaluating some variants of selection strategies and different probabilistic models. This allows to detect possible interactions between these two components of the multi-objective evolutionary algorithms. In particular, we used the selection strategies used in the NSGA-II, SPEA2 and IBEA algorithms, and the probabilistic models implemented as part of the UMDA and CMA-ES, as well as the crossover operator (SBX). Two sets of benchmark problems for the multi-objective context with different characteristics are used for the analysis, they are: problems of the DTLZ family and the recently introduced COCO framework. The results show that using probabilistic models has an advantage over the traditional genetic operator, disregarding the applied selection method. However, the obtained results also show that some selection methods present a better performance when applied in conjunction with MOEDAs. Keywords: Estimation of Distribution Algorithms, Multi-Objective Optimization Problems, Multi-Objective Evolutionary Algorithms, Selection Methods.

Page generated in 0.0452 seconds