• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2841
  • 574
  • 242
  • 101
  • 90
  • 90
  • 88
  • 47
  • 45
  • 45
  • 45
  • 43
  • 14
  • 2
  • 1
  • Tagged with
  • 3720
  • 1131
  • 945
  • 592
  • 587
  • 577
  • 525
  • 495
  • 466
  • 348
  • 308
  • 286
  • 279
  • 259
  • 249
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
241

Implementación de un algoritmo recocido simulado para el diseño de rutas de transporte público para Lima centro

Barrantes Ríos, Walter Alonso 27 May 2015 (has links)
El sistema de transporte público en muchos países es un servicio muy utilizado por personas que desean movilizarse. Sin embargo, un servicio tan utilizado por lo general tiene problemas que causan deficiencias tales como el tiempo de viaje de alto, la cobertura ineficiente de la demanda de transporte y alta congestión de tráfico. Tener una red de rutas de transporte eficaz, que permita a las personas a movilizarse rápidamente y cubra tanta demanda como sea posible de manera eficiente, es muy importante para la estructura social y económica de las áreas urbanas. El problema de Diseño de Rutas de Tránsito es un problema NP-difícil, el cual se enfoca en "la optimización de una serie de objetivos que representa la eficiencia de la red de transporte público bajo limitaciones operativas y de recursos" (Guihare, Hao 2008). Básicamente, el diseñar una red de rutas de transporte público intenta minimizar (o maximizar) algún tema objetivo deseado bajo diferentes restricciones, que reflejan los requisitos de rendimiento del sistema y / o limitación de recursos (Fan, Machemehl 2006). / Tesis
242

Diseño e implementación de un algoritmo de generación de trayectorias para la evasión de un obstáculo para un robot móvil

Gutiérrez Suárez, Bryan Ciro 21 February 2012 (has links)
La robótica móvil ha buscado desde sus inicios la autonomía móvil en su desplazamiento hacia sus objetivos. Conforme fue evolucionando esta área de la robótica se desarrollaron diversas metodologías para hacer más eficiente el movimiento autónomo de los robots. Gran cantidad de estas metodologías se desarrollaron para movilizar al robot en un entorno con obstáculos no estables. Se obtuvieron buenos resultados a costa de la alta complejidad de sus algoritmos, así como la gran cantidad de sensores implementados en el robot y entorno. La presente tesis busca reducir la complejidad de algoritmos para calcular las trayectorias más cortas hacia el objetivo de recorrido de un robot móvil en un entorno con obstáculos estables (entorno estructurado). Para la solución del problema se elige trabajar con un robot móvil de tracción diferencial. Se elaboró un programa en lenguaje C++/CLI con una interfaz gráfica de usuario (IGU) para poder, en esta, detallar información sobre el entorno y la posición final del robot y, también, para habilitar la comunicación usuario-robot. Posteriormente en el algoritmo principal del programa se hacen cálculos matemáticos para determinar la trayectoria que es más corta a recorrer con las condiciones especificadas previamente en la IGU. Con la trayectoria obtenida se generan las señales de control que son enviadas al robot móvil para que recorra dicha trayectoria. Se hacen pruebas de la generación de trayectorias y seguimiento de las mismas con obstáculo y sin obstáculo. En los resultados de las pruebas experimentales se presentaron errores de precisión y se mejoraron con un arreglo correctivo de velocidades de los motores del robot. Con este ajuste los resultados obtenidos fueron los esperados en relación con la correcta generación de la trayectoria así como el seguimiento de la misma. Se concluye que las velocidades a las que se desempeñan los motores deben ser corregidas para disminuir el error de precisión en las pruebas experimentales del sistema. Finalmente, la precisión del sistema depende de la longitud y forma de las trayectorias a seguir. / Tesis
243

Desarrollo de un algoritmo para el diseño de árboles de transmisión de cajas reductoras de engranajes cilíndricos

Soto Jaimes, Jean Carlos 08 July 2015 (has links)
El presente trabajo de tesis está enfocado en desarrollar un algoritmo para el diseño de árboles de transmisión de cajas reductoras mecánicas de engranajes cilíndricos con distribución uniforme. Asimismo, este algoritmo fue implementado a través de Microsoft Visual Studio Ultimate 2012, el programa que surge a partir de la implementación recibe el nombre de PRODIAT (Programa para el Diseño de Árboles de Transmisión). La implementación del algoritmo se realizó con el fin de proporcionarle una mayor facilidad de uso. El algoritmo se basa en cuatro etapas fundamentales: propiedades mecánicas del material y velocidad de giro, configuración de cargas, análisis de resistencia estática y análisis de resistencia a la fatiga. La primera etapa consiste en reconocer las propiedades mecánicas del material que el usuario ha seleccionado. La segunda etapa se encarga de calcular las reacciones en los apoyos a partir del reconocimiento del tipo de árbol que se diseñara (árbol de entrada, intermedio o salida), la cantidad y tipo de transmisiones que agregue el usuario. La tercera etapa se encarga de mostrar los diagramas de fuerzas internas y dimensionar el diámetro que debe tener una determinada sección de análisis seleccionada por el usuario; este cálculo se realiza según la teoría de falla de Von Misses. Se debe mencionar que no se ha considerado el peso de los componentes de transmisión ni del propio árbol, esto debido a que las cajas reductoras que se contemplan trabajan en el rango de media y alta potencia. Se utilizó el método analítico para obtener las expresiones que representan las fuerzas internas en todas las configuraciones de cargas (número de cargas y tipo de cargas. Finalmente, la cuarta etapa realiza el cálculo del factor de seguridad a la fatiga (según la expresión de la recta de Goodman modificada) para la sección seleccionada por el usuario, para lo cual el algoritmo debe de leer previamente los datos correspondientes a los factores que afectan la resistencia a la fatiga (factor de superficie, tamaño, temperatura, carga, confiabilidad y concentradores). Finalmente, para validar los resultados obtenidos mediante el uso de PRODIAT se utilizaron diversos ejemplos de diseño de árboles extraídos de textos de Diseño en Ingeniería Mecánica. Con el empleo de PRODIAT, se ha conseguido disminuir aproximadamente en un 75% el tiempo empleado para el análisis estático y de resistencia a la fatiga hecho en el diseño de árboles. / Tesis
244

Search-based stress test : an approach applying evolutionary algorithms and trajectory methods / Search-based Stress Test: an approach applying evolutionary algorithms and trajectory methods (Inglês)

Gois, Francisco Nauber Bernardo 22 September 2017 (has links)
Made available in DSpace on 2019-03-30T00:01:20Z (GMT). No. of bitstreams: 0 Previous issue date: 2017-09-22 / Some software systems must respond to thousands or millions of concurrent requests. These systems must be properly tested to ensure that they can function correctly under the expected load. Performance degradation and consequent system failures usually arise in stressed conditions. Stress testing subjects the program to heavy loads. Stress tests di¿er from other kinds of testing in that the system is executed on its breakpoints, forcing the application or the supporting infrastructure to fail. The search for the longest execution time is seen as a discontinuous, nonlinear, optimization problem, with the input domain of the system under test as a search space. In this context, search-based testing is viewed as a promising approach to verify timing constraints. Search-based software testing is the application of metaheuristic search techniques to generate software tests. The test adequacy criterion is transformed into a ¿tness function and a set of solutions in the search space is evaluated with respect to the ¿tness functionusingametaheuristic. Search-basedstresstestinginvolves¿ndingthebest-andworst-case executiontimestoascertainwhethertimingconstraintsareful¿lled. ServiceLevelAgreements (SLAs) are documents that specify realistic performance guarantees as well as penalties for non-compliance. SLAsaremadebetweenprovidersandcustomersthatincludeservicequality, resourcescapability,scalability,obligations,andconsequencesincaseofviolations. Satisfying SLAisofgreatimportanceandachallengingissue. Themainmotivationofthisthesisisto¿nd theadequateresponsetimeofSLAsusingStressTesting. Thisthesisaddressesthreeapproaches insearch-basedstresstests. First,HybridmetaheuristicusesTabuSearch,SimulatedAnnealing, andGeneticAlgorithmsinacollaborativemanner. Second,anapproachcalledHybridQusesa reinforcementlearningtechniquetooptimizethechoiceofneighboringsolutionstoexplore,reducingthetimeneededtoobtainthescenarioswiththelongestresponsetimeintheapplication. The best solutions found by HybridQ were on average 5.98% better that achieved by the Hybrid approach without Q-learning. Third, the thesis investigates the use of the multi-objective NSGA-II,SPEA2,PAESandMOEA/Dalgorithms. MOEA/Dmetaheuristicsobtainedthebest hypervolume value when compared with other approaches. The collaborative approach using MOEA/D and HybridQ improves the hypervolume values obtained and found more relevant workloadsthanthepreviousexperiments. AtoolnamedIAdapter,aJMeterpluginforperformingsearch-basedstresstests,wasdevelopedandusedtoconductalltheexperiments. Keywords: Search-based Testing, Stress Testing, Multi-objective metaheuristics, Hybrid metaheuristics,ReinforcementLearning. / Alguns sistemas de software devem responder a milhares ou milhões de requisições simultâneos. Tais sistemas devem ser devidamente testados para garantir que eles possam funcionar corretamente sob uma carga esperada. Normalmente, a degradação do desempenho e consequentes falhas do sistema geralmente ocorrem em condições de estresse. No teste de estresse o sistema é submetido a cargas de trabalho acima dos resquistos não funcionais estabelecidos. Os testes de estresse diferem de outros tipos de testes em que o sistema é executado em seus pontos de interrupção, forçando o aplicativo ou a infra-estrutura de suporte a falhar. Testes de estresse podem ser vistos como um problema de otimização descontínuo, não-linear, comodomínio de entrada do sistema em test ecomo espaço de busca. Neste contexto,ostestes baseados em busca (search-based tests) são vistos como uma abordagem promissora para veri¿car as restrições de tempo. O teste de software baseado em busca é a aplicação de técnicas de pesquisa metaheurística para gerar testes de software. O critério de adequação do teste é transformado em uma função objetivo e um conjunto de soluções no espaço de busca é avaliado em relação à função objetivo usando uma metaheurística. Otestedeestressebaseadoembusca envolve encontrar os tempos de execução melhores e piores para veri¿car se as restrições de tempo são cumpridas. Os acordos de nível de serviço (SLA) são documentos que especi¿cam garantias de desempenho realistas, bem como penalidades por incumprimento. Os SLAs são feitos entre provedores e clientes que incluem qualidade do serviço, capacidade de recursos, escalabilidade, obrigações e consequencias em caso de violação. Satisfazer o SLA é de grande importância e um problema desa¿ador. A principal motivação desta tese é encontrar o tempo de resposta adequado dos SLAs usando teste de estresse. Esta tese apresenta três abordagens em testes de estresse baseados em busca. Primeiro, a metaheurística híbrida usa Tabu Search, Simulated Annealing e Algoritmos Genéticos de forma colaborativa. Em segundo lugar, uma abordagem chamada HybridQ usa uma técnica de aprendizado de reforço para otimizar a escolha de soluções vizinhas para explorar, reduzindo o tempo necessário para obter os cenários com o tempo de resposta mais longo na aplicação. As melhores soluções encontradas pelo HybridQ foram em média 5,98 % melhores que alcançadas pela abordagem híbrida sem Qlearning. Em terceiro lugar, a tese investiga o uso dos algoritmos multi-objetivos NSGA-II, SPEA2, PAES e MOEA/D. A metaheurística MOEA/D obteve o melhor valor de hipervolume quando comparada com outras abordagens. A abordagem colaborativa usand oMOEA/DeHybridQ melhora os valores de hipervolume obtidos e encontrou workloads mais relevantes do que as experiências anteriores. Uma ferramenta chamada IAdapter, um plugin JMeter para realizar testes de esforço baseados em busca, foi desenvolvida e usada para realizar todas as experiências. Palavras-chave: Search-basedTesting,StressTesting,Multi-objective metaheuristics,Hybridmetaheuristics,ReinforcementLearning
245

Um método para incrementar a extração automática de palavras-chave de textos baseado na expansão do conjunto de treinamento com termos candidatos inferidos a partir de modelos de conhecimento / A method to increment the automatic keyphrases extraction of texts based on the expansion of the training set with candidate terms inferred from knowledge models (Inglês)

Silveira, Francisca Raquel de Vasconcelos 18 April 2018 (has links)
Made available in DSpace on 2019-03-30T00:06:02Z (GMT). No. of bitstreams: 0 Previous issue date: 2018-04-18 / Extraction keyphrase systems traditionally use classification algorithms and do not consider the fact that part of the keyphrases may not be found in the text, reducing the accuracy of such algorithms a priori. In this work, it is proposed to improve the accuracy of these systems, expanding the training set used by classification algorithms with terms that are not in the text (not-in-text terms) inferred from knowledge models such as knowledge bases and distributional semantics. The basic assumption of the thesis is that not-in-text terms have a semantic relationship with terms that are in the text. For capturing and representing this relationship, we have defined three new heuristics to characterize the relevance of the not-in-text terms to be keyphrases. The first heuristic have the objective of capturing if the semantic relatedness of a not-in-text term (in relation to the other terms in the text) is higher than the semantic relatedness of the textual term from which it was inferred. The intuition is that terms that are more semantically related to other terms in the document are more likely to represent the text. The second feature refers to the power of discrimination of the inferred not-in-text term. The intuition behind this is that good candidates to be a keyphrase are those that are deduced from various textual terms in a specific document and that are not often deduced in other documents. The other feature represents the descriptive strength of a not-in-text candidate. We argue that not-in-text keyphrases must have a strong semantic relationship with the text and that the power of this semantic relationship can be measured in a similar way as popular metrics like TFxIDF. The method proposed in this work was compared with state-of-the-art systems using seven corpora and the results show that it has significantly improved automatic keyphrase extraction, dealing with the limitation of extracting keyphrases absent of the text. Keywords: Keyphrases extraction. Keyphrases absent from the text. Deduction of keyphrases. Knowledge models. / Sistemas de extração de palavras-chave tradicionalmente usam algoritmos de classificação e não consideram o fato que parte das palavras-chave podem não ser encontradas no texto, reduzindo a acurácia desses algoritmos. Neste trabalho, propõe-se melhorar a acurácia desses sistemas, expandindo o conjunto de treinamento usado pelos algoritmos de classificação com termos que não estão no texto (termos não-texto) inferidos de modelos de conhecimento, tais como bases de conhecimento e semântica distributiva. A suposição básica da tese é que termos não-texto têm um relacionamento semântico com os termos que estão no texto. Para capturar e representar esse relacionamento, foram definidas três novas heurísticas para caracterizar a relevância dos termos não-texto a serem palavras-chave. A primeira heurística tem o objetivo de capturar se o relacionamento semântico de um termo não-texto (em relação aos outros termos no texto) é maior que o relacionamento semântico do termo do texto que o inferiu. A intuição é que termos que são mais relacionados semanticamente a outros termos no documento são mais prováveis para representar o texto. A segunda heurística refere-se ao poder de discriminação do termo não-texto. A intuição é que bons candidatos para ser uma palavra-chave são aqueles que são deduzidos de vários termos do texto em um documento específico e que não são frequentemente deduzidos em outros documentos. A outra heurística representa o poder descritivo de um candidato não-texto. Argumenta-se que palavras-chave não-texto devem ter um forte relacionamento semântico com o texto e que o poder desse relacionamento semântico pode ser medido em uma maneira similar como métricas populares, tal como TFxIDF. O método proposto neste trabalho foi comparado com sistemas de estado-da-arte usando sete corpora e os resultados exibem que o método proposto tem melhorado significativamente a extração automática de palavras-chave em documentos desses corpora, lidando com a limitação de extrair palavras-chave ausentes do texto. Palavras-chave: Extração de palavras-chave. Palavras-chave ausentes do texto. Dedução de palavras-chave. Modelos de conhecimento.
246

Um método híbrido aplicado no posicionamento de figuras irregulares com comprimento limitado / A HYBRID METHOD APPLIED TO THE IRREGULAR BIN PACKING PROBLEM (Inglês)

Coelho, Pedro Henrique Veras 29 December 2016 (has links)
Made available in DSpace on 2019-03-30T00:08:46Z (GMT). No. of bitstreams: 0 Previous issue date: 2016-12-29 / Cutting and packing problems are of great importance in industry production planning such as textile, glassware, timber, metallurgical and tannery. This problem can be subdivided per the application area. One of these subdivisions is the irregular strip packing. Which consists in defining a configuration for set of irregular pieces, so that the length of the generated layout is minimized. One variation of this problem uses a packing with limited length, allowing the generation of more than one packing area when the maximum length is reached by the layout. The objective of this dissertation consists in the description of a hybrid methodology which combines the simulated annealing algorithm and the genetic algorithm in the two-dimensional irregular strip packing problem with limited length. This methodology allows the automatic generation of feasible to obtain a layout with better density and the minimum amount of boards. Computational experiments were performed on a test library, aiming to verify the solution generation capacity of the proposed method. Keywords: Cutting and Packing, Irregular Strip Packing, Genetic Algorithms, Simulated Annealing, Irregular bin packing problem / Problemas de corte e empacotamento são de grande importância para o planejamento da produção em indústrias tais como a têxtil, vidreira, madeireira, metalúrgica e curtume. Este problema pode ser subdividido de acordo com a área de aplicação. Uma destas subdivisões é o posicionamento de figuras irregulares. Que consiste em definir uma configuração para um conjunto de peças irregulares, de forma que o comprimento do leiaute gerado seja minimizado. Uma variação deste problema utiliza uma área de posicionamento com comprimento limitado, permitindo-se a geração de mais de uma área de posicionamento quando o comprimento do leiaute tenha atingido o limite. O objetivo desta dissertação consiste na descrição de uma metodologia híbrida que combina o algoritmo recozimento simulado e o algoritmo genético aplicada ao Problema de Posicionamento de Figuras Irregulares bidimensional com comprimento limitado. Esta metodologia permite a geração automática de leiautes viáveis de modo a se obter a melhor compactação e a menor quantidade de espaços de alocação possível. Experimentos computacionais foram realizados em uma biblioteca de testes, objetivando verificar a capacidade de geração de soluções do método proposto. Palavras-chave: Corte e Empacotamento, Posicionamento de Figuras Irregulares, Métodos Híbridos, Algoritmos Genéticos, Recozimento Simulado, Problema de empacotamento de polígonos irregulares em recipientes
247

O conjunto de Pareto como um modelo para a alocação e o despacho de recursos em centros de emergência / The Pareto set as a model for the Allocation and Dispatch of Resources in Emergency Centers (Inglês)

Guedes, Ricardo Bezerra de Menezes 28 December 2018 (has links)
Made available in DSpace on 2019-03-30T00:01:15Z (GMT). No. of bitstreams: 0 Previous issue date: 2018-12-28 / This thesis investigates resource dispatch policies for emergency calls in large metropolis. A multi-agent environment implements a simulator of emergency calls and dispatch of resources, serving as an instrument to initially develop a comparative analysis of static policies, in which the order of attendance follows pre-established criteria. From these analyzes, it is concluded that such policies end up favoring only a quality criterion (e.g. the overall waiting time of the caller). This is a weakness as resource dispatch centers must take multiple quality criteria into account, such as reducing response time, cost of moving vehicles, increasing the number of calls served, and answering priority calls. In order to define dynamic policies that can lead to the optimization of multiple objectives, the Pareto set concept is used to model the different criteria to be optimized. Instead of attempting to identify manually or previously define the best dispatch strategy, a multi-objective evolutionary algorithm, coupled with the emergency call simulator and resource dispatch, automatically discovers the best approximation of the Pareto Optimum Set that would be responsible for indicating the order of call attending. The evolutionary algorithm uses the concept of quantitative dominance that calculates how much an individual dominates another, which allows greater efficiency in the discovery of the best order of resources. The validation scenario is a great metropolis in Brazil using a year of real data calls to the 911. Comparative analysis with static policies and with traditional variations of the multi-objective evolutionary algorithm without the use of quantitative dominance confirms the performance of the approach proposed in the thesis. Keywords: Agent-based simulation; evolutionary algorithms; multiobjective optimization; dispatch center / Essa tese investiga políticas de despacho de recursos para atendimento a chamadas de emergência em grandes cidades. Um ambiente multiagente implementa um simulador de chamadas de emergências e despacho de recursos, servindo de instrumento para, inicialmente, se desenvolver uma análise comparativa de políticas estáticas, nas quais a ordem de atendimento segue a critérios pré-estabelecidos. A partir dessas análises, conclui-se que tais políticas acabam por privilegiar somente um critério de qualidade (e.g. o tempo global de espera do chamador). Isso se mostra uma deficiência, pois centros de despacho de recursos devem levar em conta critérios de qualidade múltiplos como reduzir o tempo de resposta, o custo de deslocamento de veículos, aumentar o número de chamadas atendidas e o atendimento de chamadas prioritárias. Visando definir políticas dinâmicas que possam levar a otimização de objetivos múltiplos, usa-se o conceito de conjunto de Pareto para modelar os diferentes critérios a serem otimizados. Em vez de tentar identificar manualmente ou definir previamente a melhor estratégia de despacho, um Algoritmo Evolutivo Multiobjetivo, acoplado ao simulador de chamada de emergência e de despacho de recursos, descobre automaticamente a melhor aproximação do Conjunto ótimo de Pareto que seria o responsável por indicar a ordem de atendimento das chamadas. O algoritmo evolutivo usa o conceito dominância quantitativa que calcula o quanto um indivíduo domina outro, o que permite maior eficiência na descoberta da melhor ordem de recursos. O cenário de validação é uma grande metrópole no Brasil usando um ano de dados reais de chamadas para o 190. Análises comparativas com políticas estáticas e com variações tradicionais do algoritmo evolutivo multiobjectivo sem o uso de dominância quantitativa confirma a performance do enfoque proposto na tese. Palavras-chave: Simulação baseada em agentes; algoritmos evolutivos; otimização multiobjetivo; centro de despacho.
248

V-Mask : uma abordagem híbrida e conservativa utilizando bitmasks para visibilidade volumétrica em smartphones / V-Mask: A Hybrid and Conservative Approach for Volumetric Visibility in Smartphones using Bitmasks (Inglês)

Moreira, Ronaldo de Sousa 06 September 2011 (has links)
Made available in DSpace on 2019-03-29T23:27:39Z (GMT). No. of bitstreams: 0 Previous issue date: 2011-09-06 / This work presents V-Mask, a hybrid and conservative approach using bitmasks for volumetric visibility in smartphones. It is hybrid because it combines a hierarchical spatial partitioning structure, named V-Mask Tree, which is responsible for mapping regions and objects using bitmasks, with the visibility algorithms view frustum culling and occlusion culling, specially adapted for bitwise operations over the V-Mask Tree. It is also conservative because totally or partially visible polygons are sent to the rendering pipeline (although, completely invisible polygons can also be sent). Moreover, for exact visibility determination, V-Mask takes advantage, when possible, of some existing algorithm in hardware that operates in image-space, such as z-buffer, available in almost all modern graphic processors. V-Mask handles visibility from the viewpoint, with potential occluders positioned in any direction. Object visibility is quickly determined based on a region map. This map can be loaded from pre-processed datasets or computed in runtime, using selected occluders. In particular, the occlusion culling algorithm implemented in V-Mask projects shadow volumes from selected potential occluders. These occluders can be determined by the application in runtime, allowing the algorithm to be used in dynamic scenes. V-Mask discretizes the space into voxels, which allows visibility mapping of complex regions, such as indoor environments with exists and hallways, or outside urban environments with buildings and streets. Internally, these voxels are stored as bitmasks that, besides reducing the memory consumption, enable optimized visibility tests with bitwise operations, instead of using floating point calculations. To analyze V-Mask performance, a considerable number of tests were performed in graphical environments containing objects with varied geometric and motion features, proving its effectiveness against some other known approaches. Keywords:Volumetric Visibility, Bitmasks, Smartphones. / Este trabalho apresenta o V-Mask, uma abordagem híbrida e conservativa utilizando Bitmasks para visibilidade volumétrica em smartphones. Híbrida porque compreende uma estrutura hierárquica de particionamento espacial e os algoritmos de visibilidade view frustum culling e occlusion culling, especialmente adaptados para operações de bits sobre a estrutura de particionamento espacial V-Mask Tree, a qual é responsável pelo mapeamento de regiões e objetos utilizando bitmasks. Conservativa porque polígonos totalmente ou parcialmente visíveis são enviados ao pipeline de renderização (embora, polígonos completamente invisíveis também podem ser enviados). Além disso, para a determinação da visibilidade exata, o V-Mask se beneficia, sempre que possível, da existência de algum algoritmo implementado em nível de hardware, que opere no espaço da imagem, tal como o z-buffer, disponível em quase todos os processadores gráficos modernos. V-Mask trata a visibilidade a partir do ponto de observação, com obstrutores potenciais posicionados em qualquer direção. A visibilidade dos objetos é determinada rapidamente, a partir de um mapa de regiões. Esse mapa pode ser carregado a partir de dados pré-processados ou pode ser calculado, em tempo de execução, a partir de obstrutores selecionados. Em particular, o algoritmo de occlusion culling implementado no V-Mask seleciona obstrutores potenciais para projetar volumes de sombra. Esses obstrutores podem ser indicados pela aplicação em tempo de execução, permitindo o uso do algoritmo em cenas dinâmicas. V-Mask discretiza o espaço em voxels, o que permite mapear regiões complexas de visibilidade, tais como ambientes internos com saídas e corredores, ou ambientes externos urbanos com edifícios e ruas. Internamente, esses voxels são representados com bitmasks que, além de reduzirem o consumo de memória, propiciam testes de visibilidade otimizados com operações de bits, no lugar de cálculos com ponto flutuante. Para analisar o desempenho do V-Mask, um número significativo de testes foram realizados em ambientes gráficos contendo objetos com características geométricas e de movimento variadas, comprovando a sua eficácia perante algumas outras abordagens conhecidas. Palavras-chave: Visibilidade Volumétrica, Bitmasks, Smartphones.
249

Classificação de tráfego online baseada em sub-fluxos / Online traffic classification based on sub-flows (Inglês)

Ribeiro, Victor Pasknel de Alencar 10 November 2011 (has links)
Made available in DSpace on 2019-03-29T23:33:01Z (GMT). No. of bitstreams: 0 Previous issue date: 2011-11-10 / Classification based on sub-flows is a step towards meeting the requirements for online classification of network traffic. This work describes a classification strategy based on sub-flows, applied to TCP and UDP traffics, which opens a perspective to classify the entire traffic of a link. The proposed work uses the One-Against-All (OAA) decompo- sition applied to statistical features of sub-flows obtained only from the information of packet headers. The OAA decomposition explores the characteristic to build highly spe- cialized binary classifiers for each application class. The results show a mean accuracy of 98% for the selected classes. Keywords: Online traffic classification, one-against-all classification. / A classificação baseada em sub-fluxos é um passo no sentido de cumprir os requisitos para a classificação online do tráfego de rede. Este trabalho descreve uma estratégia de classificação baseada em sub-fluxos, aplicada aos tráfegos TCP e UDP, que abre uma perspectiva para classificar todo o tráfego de um link. O trabalho proposto utiliza a decomposição de um-contra-todos (1CT) sobre variáveis estatísticas dos sub-fluxos, as quais são obtidas somente a partir da informação dos cabeçalhos dos pacotes. A de- composição 1CT explora a característica de construir classificadores binários altamente especializados para cada classe de aplicação. Os resultados mostram uma precisão média de 98% para as classes selecionadas. Palavras-chave: Classificação de tráfego online, classificação um-contra-todos
250

Comitês de agrupamentos bidimensionais de dados gerados via algorimos bio-inspirados multimodais / Ensembles of biclusters generated by multimodal bio-inspired algorithms (Inglês)

Menezes, Lara Carvalho 28 December 2011 (has links)
Made available in DSpace on 2019-03-29T23:32:52Z (GMT). No. of bitstreams: 0 Previous issue date: 2011-12-28 / The goal of Data Mining (DM) as a research area is to provide a set of tasks and algorithms aiming at extracting interesting and useful information from large databases. Among several DM tasks lies that of biclustering, whereby rows and columns of a data matrix are simultaneously grouped based on the similarity of their elements. The main objectives of this work are to provide a thorough comparative assessment on the performance of several multimodal bio-inspired algorithms while coping with biclustering as well as to investigate the potentials of ensemble models induced over biclusters generated by these algorithms, having in mind Bioinformatics problems. After introducing general DM concepts as well as specific concepts related to biclustering, a detailed characterization of the multimodal bio-inspired algorithms and ensemble models investigated here is provided. Experiments have been systematically conducted to evaluate the performance of these algorithms, and the overall results achieved indicate that the ensemble models can usually outperform the multimodal bio-inspired algorithms when applied alone, as evidenced by several efficiency and effectiveness measures and hypothesis tests. Keywords: Data mining, Machine learning, Biclustering, Committee machines, Metaheuristics, Bio-inspired algorithms, Bioinformatics. / A área de Mineração de Dados (MD) fornece um conjunto de tarefas e algoritmos voltados à extração de informações de grandes bases de dados. Entre essas tarefas, temos o agrupamento bidimensional de dados (biclustering), em que linhas e colunas de uma matriz são agrupadas simultaneamente com base na similaridade dos seus elementos. Os objetivos deste trabalho são realizar um estudo comparativo sistemático entre algoritmos bio-inspirados multimodais aplicados à tarefa de agrupamento bidimensional de dados e investigar o desempenho de comitês de biclusters gerados por esses algoritmos, tomando como base problemas de Bioinformática. Após se introduzir conceitos gerais de MD e específicos da tarefa de biclustering, passa-se a discorrer sobre algoritmos bio-inspirados multimodais e sobre modelos de comitês aplicados a essa tarefa. Experimentos conduzidos de forma sistemática avaliam o desempenho dos algoritmos bio-inspirados e de dois arranjos de comitês de biclusters, sendo que os resultados obtidos indicam que, em geral, os comitês obtiveram um desempenho mais satisfatório que os algoritmos multimodais, de acordo com as métricas de avaliação levantadas e testes estatísticos. Palavras-Chave: Mineração de dados, Aprendizado de máquina, Agrupamento bidimensional, Comitês de máquinas, Meta-heurísticas, Algoritmos bio-inspirados, Bioinformática

Page generated in 0.0749 seconds