Spelling suggestions: "subject:"computer algorithms."" "subject:"aomputer algorithms.""
731 |
CircularTrip and ArcTrip:effective grid access methods for continuous spatial queries.Cheema, Muhammad Aamir, Computer Science & Engineering, Faculty of Engineering, UNSW January 2007 (has links)
A k nearest neighbor query q retrieves k objects that lie closest to the query point q among a given set of objects P. With the availability of inexpensive location aware mobile devices, the continuous monitoring of such queries has gained lot of attention and many methods have been proposed for continuously monitoring the kNNs in highly dynamic environment. Multiple continuous queries require real-time results and both the objects and queries issue frequent location updates. Most popular spatial index, R-tree, is not suitable for continuous monitoring of these queries due to its inefficiency in handling frequent updates. Recently, the interest of database community has been shifting towards using grid-based index for continuous queries due to its simplicity and efficient update handling. For kNN queries, the order in which cells of the grid are accessed is very important. In this research, we present two efficient and effective grid access methods, CircularTrip and ArcTrip, that ensure that the number of cells visited for any continuous kNN query is minimum. Our extensive experimental study demonstrates that CircularTrip-based continuous kNN algorithm outperforms existing approaches in terms of both efficiency and space requirement. Moreover, we show that CircularTrip and ArcTrip can be used for many other variants of nearest neighbor queries like constrained nearest neighbor queries, farthest neighbor queries and (k + m)-NN queries. All the algorithms presented for these queries preserve the properties that they visit minimum number of cells for each query and the space requirement is low. Our proposed techniques are flexible and efficient and can be used to answer any query that is hybrid of above mentioned queries. For example, our algorithms can easily be used to efficiently monitor a (k + m) farthest neighbor query in a constrained region with the flexibility that the spatial conditions that constrain the region can be changed by the user at any time.
|
732 |
CircularTrip and ArcTrip:effective grid access methods for continuous spatial queries.Cheema, Muhammad Aamir, Computer Science & Engineering, Faculty of Engineering, UNSW January 2007 (has links)
A k nearest neighbor query q retrieves k objects that lie closest to the query point q among a given set of objects P. With the availability of inexpensive location aware mobile devices, the continuous monitoring of such queries has gained lot of attention and many methods have been proposed for continuously monitoring the kNNs in highly dynamic environment. Multiple continuous queries require real-time results and both the objects and queries issue frequent location updates. Most popular spatial index, R-tree, is not suitable for continuous monitoring of these queries due to its inefficiency in handling frequent updates. Recently, the interest of database community has been shifting towards using grid-based index for continuous queries due to its simplicity and efficient update handling. For kNN queries, the order in which cells of the grid are accessed is very important. In this research, we present two efficient and effective grid access methods, CircularTrip and ArcTrip, that ensure that the number of cells visited for any continuous kNN query is minimum. Our extensive experimental study demonstrates that CircularTrip-based continuous kNN algorithm outperforms existing approaches in terms of both efficiency and space requirement. Moreover, we show that CircularTrip and ArcTrip can be used for many other variants of nearest neighbor queries like constrained nearest neighbor queries, farthest neighbor queries and (k + m)-NN queries. All the algorithms presented for these queries preserve the properties that they visit minimum number of cells for each query and the space requirement is low. Our proposed techniques are flexible and efficient and can be used to answer any query that is hybrid of above mentioned queries. For example, our algorithms can easily be used to efficiently monitor a (k + m) farthest neighbor query in a constrained region with the flexibility that the spatial conditions that constrain the region can be changed by the user at any time.
|
733 |
A hybrid multi-objective bayesian estimation of distribution algorithm / Um algoritmo de estimação de distribuição híbrido multiobjetivo com modelo probabilístico bayesianoMartins, Marcella Scoczynski Ribeiro 11 December 2017 (has links)
Atualmente, diversas metaheurísticas têm sido desenvolvidas para tratarem problemas de otimização multiobjetivo. Os Algoritmos de Estimação de Distribuição são uma classe específica de metaheurísticas que exploram o espaço de variáveis de decisão para construir modelos de distribuição de probabilidade a partir das soluções promissoras. O modelo probabilístico destes algoritmos captura estatísticas das variáveis de decisão e suas interdependências com o problema de otimização. Além do modelo probabilístico, a incorporação de métodos de busca local em Algoritmos Evolutivos Multiobjetivo pode melhorar consideravelmente os resultados. Estas duas técnicas têm sido aplicadas em conjunto na resolução de problemas de otimização multiobjetivo. Nesta tese, um algoritmo de estimação de distribuição híbrido, denominado HMOBEDA (Hybrid Multi-objective Bayesian Estimation of Distribution Algorithm ), o qual é baseado em redes bayesianas e busca local é proposto no contexto de otimização multi e com muitos objetivos a fim de estruturar, no mesmo modelo probabilístico, as variáveis, objetivos e as configurações dos parâmetros da busca local. Diferentes versões do HMOBEDA foram testadas utilizando instâncias do problema da mochila multiobjetivo com dois a cinco e oito objetivos. O HMOBEDA também é comparado com outros cinco métodos evolucionários (incluindo uma versão modificada do NSGA-III, adaptada para otimização combinatória) nas mesmas instâncias do problema da mochila, bem como, em um conjunto de instâncias do modelo MNK-landscape para dois, três, cinco e oito objetivos. As fronteiras de Pareto aproximadas também foram avaliadas utilizando as probabilidades estimadas pelas estruturas das redes resultantes, bem como, foram analisadas as interações entre variáveis, objetivos e parâmetros de busca local a partir da representação da rede bayesiana. Os resultados mostram que a melhor versão do HMOBEDA apresenta um desempenho superior em relação às abordagens comparadas. O algoritmo não só fornece os melhores valores para os indicadores de hipervolume, capacidade e distância invertida geracional, como também apresenta um conjunto de soluções com alta diversidade próximo à fronteira de Pareto estimada. / Nowadays, a number of metaheuristics have been developed for dealing with multiobjective optimization problems. Estimation of distribution algorithms (EDAs) are a special class of metaheuristics that explore the decision variable space to construct probabilistic models from promising solutions. The probabilistic model used in EDA captures statistics of decision variables and their interdependencies with the optimization problem. Moreover, the aggregation of local search methods can notably improve the results of multi-objective evolutionary algorithms. Therefore, these hybrid approaches have been jointly applied to multi-objective problems. In this work, a Hybrid Multi-objective Bayesian Estimation of Distribution Algorithm (HMOBEDA), which is based on a Bayesian network, is proposed to multi and many objective scenarios by modeling the joint probability of decision variables, objectives, and configuration parameters of an embedded local search (LS). We tested different versions of HMOBEDA using instances of the multi-objective knapsack problem for two to five and eight objectives. HMOBEDA is also compared with five cutting edge evolutionary algorithms (including a modified version of NSGA-III, for combinatorial optimization) applied to the same knapsack instances, as well to a set of MNK-landscape instances for two, three, five and eight objectives. An analysis of the resulting Bayesian network structures and parameters has also been carried to evaluate the approximated Pareto front from a probabilistic point of view, and also to evaluate how the interactions among variables, objectives and local search parameters are captured by the Bayesian networks. Results show that HMOBEDA outperforms the other approaches. It not only provides the best values for hypervolume, capacity and inverted generational distance indicators in most of the experiments, but it also presents a high diversity solution set close to the estimated Pareto front.
|
734 |
Controle de fixação atentivo para uma cabeça robótica com visão binocular / Attentive gaze control for a binocular robot headRoos, André Filipe 29 August 2016 (has links)
A pesquisa em visão computacional ainda está distante de replicar a adaptabilidade e o desempenho do Sistema Visual Humano. Grande parte das técnicas consolidadas são válidas apenas em cenas estáticas e condições restritivas. Cabeças robóticas representam um avanço em flexibilidade, pois carregam câmeras que podem ser movimentadas livremente para a exploração dos arredores. A observação artificial de um ambiente dinâmico exige a solução de pelo menos dois problemas: determinar quais informações perceptuais relevantes extrair dos sensores e como controlar seu movimento para mudar e manter a fixação de alvos com forma e movimento arbitrários. Neste trabalho, um sistema de controle de fixação binocular geral é proposto, e o subsistema responsável pela seleção de alvos e fixação de deslocamentos laterais é projetado, experimentado e avaliado em uma cabeça robótica com quatro graus de liberdade. O subsistema emprega um popular modelo de atenção visual de baixo nível para detectar o ponto mais saliente da cena e um controlador proporcional-integral gera um movimento conjuntivo das duas câmeras para centralizá-lo na imagem da câmera esquerda, assumida como dominante. O desenvolvimento do sistema envolveu primeiramente a modelagem física detalhada do mecanismo de pan e tilt das câmeras. Então, a estrutura linearizada obtida foi ajustada por mínimos quadrados aos dados experimentais de entrada-saída. Por fim, os ganhos do controlador foram sintonizados por otimização e ajuste manual. A implementação em C++ com a biblioteca OpenCV permitiu operação em tempo real a 30 Hz. Experimentos demonstram que o sistema é capaz de fixar alvos estáticos e altamente salientes sem conhecimento prévio ou fortes suposições. Alvos em movimento harmônico são perseguidos naturalmente, embora com defasamento. Em cenas visualmente densas, onde múltiplos alvos em potencial competem pela atenção, o sistema pode apresentar comportamento oscilatório, exigindo o ajuste fino dos pesos do algoritmo para operação suave. A adição de um controlador para o pescoço e de um controlador de vergência para a compensação de deslocamentos em profundidade são os próximos passos rumo a um observador artificial genérico. / Computer vision research is still far from replicating the adaptability and performance of the Human Visual System. Most of its consolidated techniques are valid only over static scenes and restrictive conditions. Robot heads represent an advance in terms of flexibility by carrying cameras that can be freely moved to explore the surroundings. Artificial observation of dynamic environments requires the solution of at least two problems: to determine what is the relevant perceptual information to be extracted from the sensors and how to control their movement in order to shift and hold gaze on targets featuring arbitrary shapes and motions. In this work, a general binocular gaze control system is proposed, and the subsystem responsible for targeting and following lateral displacements is designed, tested and assessed in a four degrees-of-freedom robot head. The subsystem employs a popular low-level visual attention model to detect the most salient point in the scene, and a proportional-integral controller generates a conjunctive movement of the cameras to center it in the left camera image, assumed to be dominant. The development started with a detailed physical modeling of the pan and tilt mechanism that drives the cameras. Then, the linearized structure obtained was fitted via least squares estimation to experimental input-output data. Finally, the controller gains were tuned by optimization and manual adjustment. The OpenCV-based implementation in C++ allowed real-time execution at 30 Hz. Experiments demonstrate that the system is capable of fixating highly salient and static targets without any prior knowledge or strong assumptions. Targets describing harmonic motion are naturally pursued, albeit with a phase shift. In cluttered scenes, where multiple potential targets compete for attention, the system may present oscillatory behavior, requiring fine adjustment of algorithm weights for smooth operation. The addition of a controller for the neck and a vergence controller to compensate for depth displacements are the next steps towards a generic artificial observer.
|
735 |
Algebraic and multilinear-algebraic techniques for fast matrix multiplicationGouaya, Guy Mathias January 2015 (has links)
This dissertation reviews the theory of fast matrix multiplication from a multilinear-algebraic point of view, as
well as recent fast matrix multiplication algorithms based on discrete Fourier transforms over nite groups.
To this end, the algebraic approach is described in terms of group algebras over groups satisfying the triple
product Property, and the construction of such groups via uniquely solvable puzzles.
The higher order singular value decomposition is an important decomposition of tensors that retains some of
the properties of the singular value decomposition of matrices. However, we have proven a novel negative result
which demonstrates that the higher order singular value decomposition yields a matrix multiplication algorithm
that is no better than the standard algorithm. / Mathematical Sciences / M. Sc. (Applied Mathematics)
|
736 |
Uma abordagem híbrida baseada em Projeções sobre Conjuntos Convexos para Super-Resolução espacial e espectral / A hybrid approach based on projections onto convex sets for spatial and spectral super-resolutionCunha, Bruno Aguilar 10 November 2016 (has links)
Submitted by Milena Rubi ( ri.bso@ufscar.br) on 2017-10-17T16:07:35Z
No. of bitstreams: 1
CUNHA_Bruno_2017.pdf: 1281922 bytes, checksum: 605ecd45f46a3b67332ed6bd13043af5 (MD5) / Approved for entry into archive by Milena Rubi ( ri.bso@ufscar.br) on 2017-10-17T16:07:44Z (GMT) No. of bitstreams: 1
CUNHA_Bruno_2017.pdf: 1281922 bytes, checksum: 605ecd45f46a3b67332ed6bd13043af5 (MD5) / Approved for entry into archive by Milena Rubi ( ri.bso@ufscar.br) on 2017-10-17T16:07:53Z (GMT) No. of bitstreams: 1
CUNHA_Bruno_2017.pdf: 1281922 bytes, checksum: 605ecd45f46a3b67332ed6bd13043af5 (MD5) / Made available in DSpace on 2017-10-17T16:08:04Z (GMT). No. of bitstreams: 1
CUNHA_Bruno_2017.pdf: 1281922 bytes, checksum: 605ecd45f46a3b67332ed6bd13043af5 (MD5)
Previous issue date: 2016-11-10 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / This work proposes both a study and a development of an algorithm for super-resolution of digital images using projections onto convex sets. The method is based on a classic algorithm for spatial super-resolution which considering the subpixel information present in a set of lower resolution images, generate an image of higher resolution and better visual quality. We propose the incorporation of a new restriction based on the Richardson-Lucy algorithm in order to restore and recover part of the spatial frequencies lost during the degradation and decimation process of the high resolution images. In this way the algorithm provides a hybrid approach based on projections onto convex sets which is capable of promoting both the spatial and spectral image super-resolution. The proposed approach was compared with the original algorithm from Sezan and Tekalp and later with a method based on a robust framework that is considered nowadays one of the most effective methods for super-resolution. The results, considering both the visual and the mean square error analysis, demonstrate that the proposed method has great potential promoting increased visual quality over the images studied. / Este trabalho visa o estudo e o desenvolvimento de um algoritmo para super-resolução de imagens digitais baseado na teoria de projeções sobre conjuntos convexos. O método é baseado em um algoritmo clássico de projeções sobre restrições convexas para super- resolução espacial onde se busca, considerando as informações subpixel presentes em um conjunto de imagens de menor resolução, gerar uma imagem de maior resolução e com melhor qualidade visual. Propomos a incorporação de uma nova restrição baseada no algoritmo de Richardson-Lucy para restaurar e recuperar parte das frequências espaciais perdidas durante o processo de degradação e decimação das imagens de alta resolução. Nesse sentido o algoritmo provê uma abordagem híbrida baseada em projeções sobre conjuntos convexos que é capaz de promover simultaneamente a super-resolução espacial e a espectral. A abordagem proposta foi comparada com o algoritmo original de Sezan e Tekalp e posteriormente com um método baseado em um framework de super-resolução robusta, considerado um dos métodos mais eficazes na atualidade. Os resultados obtidos, considerando as análises visuais e também através do erro médio quadrático, demonstram que o método proposto possui grande potencialidade promovendo o aumento da qualidade visual das imagens estudadas.
|
737 |
Fatiamento de malhas triangulares: teoria e experimentosGregori, Rodrigo Mello Mattos Habib 29 August 2014 (has links)
Manufatura Aditiva, também conhecida por Impressão 3D, é um processo baseado na sobreposição de camadas para produzir um objeto físico. Os dados para a produção desse objeto vêm de um modelo geométrico tridimensional, geralmente representado por uma malha de triângulos. Um dos principais procedimentos no processo de produção é fatiar a malha triangular e gerar uma série de contornos, os quais representam as camadas do objeto. Há diversas estratégicas para fatiar malhas triangulares, porém, a maior parte dos trabalhos na literatura foca-se em problemas como a qualidade do modelo, melhorias específicas no processo de fatiamento e uso de memória; poucos trabalhos, no entanto, abordam o problema por uma perspectiva de complexidade algorítmica. Algoritmos propostos atualmente para este problema executam em tempo O(n² + k²) ou O(n² + nlognk); o algoritmo proposto nesta dissertação possui complexidade O(nk) para uma entrada com n triângulos e k planos e, com K é o número médio de planos que cortam cada triângulo nesta entrada específica. O algoritmo proposto, chamado de Fatiamento por Estocada (FE) é comparado teórica e experimentalmente com alguns dos métodos conhecidos na literatura e os resultados mostram melhora considerável em tempo de execução. / Additive Manufacturing, also known as 3D printing, is a process based on the addition of sucessive layers in order to build a physical object. The data for building this object come from geometric 3D model, usually represented by a triangle mesh. One of the main procedures in this process is to slice the triangle mesh and output a sequence of contours, representing each one of the layers of the object. There are many strategies for slicing meshes, however, most of the current literature is concerned with ad hoc issues such as the quality of the model, specific improvements in the slicing process and memory usage, whereas few of them address the problem from an algorithmic complecity perspective. While current algorithms for this problem ruin in O(n² + k²) or O(n² + nlognk), the proposed algorithm runs in O(nk), for a given input with n triangles, k planes and where k is the average number of slices cutting each triangle in this specific input. This is asymptotically the best that can be achieved under certain fairly common assumptions. The proposed algorithm, called here Slicing by Stabbing (SS), was compared both theoretically and experimentally against known methods in the literature and the results show considerable improvement in execution time.
|
738 |
Otimização por nuvem de partículas aplicada ao problema de atribuição de tarefas dinâmicoPierobom, Jean Lima 13 February 2012 (has links)
A Inteligência de Enxame (Swarm Intelligence) é uma área de estudos que busca soluções para problemas de otimização utilizando-se de técnicas computacionais inspiradas no comportamento social emergente encontrado na biologia. A metaheurística Particle Swarm Optimization (PSO) é relativamente nova e foi inspirada no comportamento social de bandos de pássaros. PSO tem apresentado bons resultados em alguns trabalhos recentes de otimização discreta, apesar de ter sido concebido originalmente para a otimização de problemas contínuos. Este trabalho trata o Problema de Atribuição de Tarefas - Task Assignment Problem (TAP), e apresenta uma aplicação: o problema de alocação de táxis e clientes, cujo objetivo da otimização está em minimizar a distância percorrida pela frota. Primeiramente, o problema é resolvido em um cenário estático, com duas versões do PSO discreto: a primeira abordagem é baseada em codificação binária e a segunda utiliza permutações para codificar as soluções. Os resultados obtidos mostram que a segunda abordagem é superior à primeira em termos de qualidade das soluções e tempo computacional, e é capaz de encontrar as soluções ótimas para o problema nas instâncias para as quais os valores ótimos são conhecidos. A partir disto, o algoritmo é adaptado para a otimização do problema em um ambiente dinâmico, com a aplicação de diferentes estratégias de resposta às mudanças. Os novos resultados mostram que a combinação de algumas abordagens habilita o algoritmo PSO a obter boas soluções ao longo da ocorrência de mudanças nas variáveis de decisão problema, em todas as instâncias testadas, com diferentes tamanhos e escalas de mudança. / Swarm Intelligence searches for solutions to optimization problems using computational techniques inspired in the emerging social behavior found in biology. The metaheuristic Particle Swarm Optimization (PSO) is relatively new and can be considered a metaphor of bird flocks. PSO has shown good results in some recent works of discrete optimization, despite it has been originally designed for continuous optimization problems. This paper deals with the Task Assignment Problem (TAP), and presents an application: the optimization problem of allocation of taxis and customers, whose goal is to minimize the distance traveled by the fleet. The problem is solved in a static scenario with two versions of the discrete PSO: the first approach that is based on a binary codification and the second one which uses permutations to encode the solution. The obtained results show that the second approach is superior than the first one in terms of quality of the solutions and computational time, and it is capable of achieving the known optimal values in the tested instances of the problem. From this, the algorithm is adapted for the optimization of the problem in a dynamic environment, with the application of different strategies to respond to changes. The new results show that some combination of approaches enables the PSO algorithm to achieve good solutions along the occurrence of changes in decision variables problem, in all instances tested, with different sizes and scales of change.
|
739 |
Reconstrução de imagens de ultrassom usando esparsidade: métodos iterativos rápidos / Ultrasonic image reconstruction using sparsity: fast iterative methodsValente, Solivan Arantes 23 August 2017 (has links)
Este trabalho contribui para a busca de métodos rápidos para reconstrução esparsa em ultrassonografia. O objetivo é alcançado em três etapas: a validação de um modelo discreto de aquisição, uma avaliação comparativa de algoritmos adequados ao problema e uma proposição de aceleração para um dos métodos de melhor desempenho. A estratégia de validação do modelo consiste em reconstruções a partir de dados sintéticos de resultado conhecido e subsequente validação com dados reais, coletados por uma plataforma de pesquisa em ultrassom com um phantom de uso profissional. As reconstruções são realizadas por um conjunto selecionado de algoritmos iterativos de otimização convexa, que têm seus parâmetros, resultados e desempenhos analisados. O trabalho propõe a aceleração do método ADMM (Alternating Direction Method of Multipliers) que está entre os de melhor desempenho em termos de custo computacional, e que pode dobrar sua velocidade inicial de convergência com a modificação proposta. Como a aceleração também pode ser utilizada em outras aplicações do ADMM, a modificação proposta é validada em quatro casos de estudo, sendo dois em ultrassonografia e dois em imageamento por ressonância magnética. / This study contributes to the search for fast iterative methods for ultrasonic sparse image reconstruction. The goal is achieved in three steps: the validation of a discrete acquisition model, a comparative evaluation of algorithms suitable to the problem and an acceleration proposal for one of the best performing methods. The model validation strategy consists of image reconstructions from synthetic data with previously known results, and subsequent validation with real data, collected by an ultrasound research platform with a professional phantom. The reconstructions are performed by a selected set of iterative algorithms of convex optimization, which have their parameters, results and performances analyzed. This study proposes the acceleration of the ADMM (Alternating Direction Method of Multipliers), which is among the best performing methods in terms of computational cost, and which can have its initial convergence speed doubled by the proposed modification. Since the acceleration can also be used in other applications of ADMM, the proposed modification is validated in four cases of study: two in ultrasonography and two in magnetic resonance imaging.
|
740 |
Fatiamento de malhas triangulares: teoria e experimentosGregori, Rodrigo Mello Mattos Habib 29 August 2014 (has links)
Manufatura Aditiva, também conhecida por Impressão 3D, é um processo baseado na sobreposição de camadas para produzir um objeto físico. Os dados para a produção desse objeto vêm de um modelo geométrico tridimensional, geralmente representado por uma malha de triângulos. Um dos principais procedimentos no processo de produção é fatiar a malha triangular e gerar uma série de contornos, os quais representam as camadas do objeto. Há diversas estratégicas para fatiar malhas triangulares, porém, a maior parte dos trabalhos na literatura foca-se em problemas como a qualidade do modelo, melhorias específicas no processo de fatiamento e uso de memória; poucos trabalhos, no entanto, abordam o problema por uma perspectiva de complexidade algorítmica. Algoritmos propostos atualmente para este problema executam em tempo O(n² + k²) ou O(n² + nlognk); o algoritmo proposto nesta dissertação possui complexidade O(nk) para uma entrada com n triângulos e k planos e, com K é o número médio de planos que cortam cada triângulo nesta entrada específica. O algoritmo proposto, chamado de Fatiamento por Estocada (FE) é comparado teórica e experimentalmente com alguns dos métodos conhecidos na literatura e os resultados mostram melhora considerável em tempo de execução. / Additive Manufacturing, also known as 3D printing, is a process based on the addition of sucessive layers in order to build a physical object. The data for building this object come from geometric 3D model, usually represented by a triangle mesh. One of the main procedures in this process is to slice the triangle mesh and output a sequence of contours, representing each one of the layers of the object. There are many strategies for slicing meshes, however, most of the current literature is concerned with ad hoc issues such as the quality of the model, specific improvements in the slicing process and memory usage, whereas few of them address the problem from an algorithmic complecity perspective. While current algorithms for this problem ruin in O(n² + k²) or O(n² + nlognk), the proposed algorithm runs in O(nk), for a given input with n triangles, k planes and where k is the average number of slices cutting each triangle in this specific input. This is asymptotically the best that can be achieved under certain fairly common assumptions. The proposed algorithm, called here Slicing by Stabbing (SS), was compared both theoretically and experimentally against known methods in the literature and the results show considerable improvement in execution time.
|
Page generated in 0.0551 seconds