• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2822
  • 578
  • 238
  • 101
  • 90
  • 90
  • 88
  • 47
  • 45
  • 45
  • 45
  • 43
  • 14
  • 2
  • 1
  • Tagged with
  • 3701
  • 1108
  • 946
  • 591
  • 587
  • 553
  • 525
  • 495
  • 460
  • 335
  • 308
  • 286
  • 279
  • 261
  • 249
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
311

Um algoritmo evolutivo para indução de árvores de regressão robusto a valores ausentes

Blomberg, Luciano Costa January 2014 (has links)
Made available in DSpace on 2014-09-23T02:01:03Z (GMT). No. of bitstreams: 1 000461465-Texto+Completo-0.pdf: 5428729 bytes, checksum: d0627f774922501baa685975c40465f5 (MD5) Previous issue date: 2014 / A common concern in many fields of knowledge involves problems of low quality data, such as noise and missing data. In the machine learning area, for example, missing data has generated serious problems in the knowledge extraction process, hiding important information about the dataset, skewing results and affecting the accuracy of the induced models. In order to deal with these problems, much has been discussed in the literature about missing values treatment strategies, either by preprocessing tasks or by the implementation of robust algorithms to missing data. In this thesis, we introduce a new evolutionary algorithm for induction of regression trees, including multiple strategies in its evolutionary cycle for dealing with missing data. Aiming to make a comparative analysis, we evaluated six traditional regression algorithms over 10 public datasets artificially modified to present different levels of missing data. Results from the experimental analysis show that the proposed solution presents a good trade-off between model interpretability and predictive performance, especially for datasets with more than 40% of missing data. / Uma preocupação comum em muitas áreas do conhecimento envolve problemas de baixa qualidade de dados, tais como ruídos e dados ausentes. Na área de aprendizado de máquina, por exemplo, dados ausentes têm gerado sérios problemas no processo de extração de conhecimento, ocultando importantes informações sobre o dataset, enviesando resultados e afetando o desempenho preditivo dos modelos induzidos. Para lidar com esse problema, muito tem se discutido na literatura sobre estratégias de tratamento, seja por préprocessamento ou por meio do desenvolvimento de algoritmos robustos a dados ausentes. Neste trabalho, propõe-se um novo algoritmo evolutivo para indução de árvores de regressão, agregando em seu ciclo evolutivo múltiplas estratégias para lidar com dados ausentes. Com o objetivo de fazer uma análise comparativa, foram avaliados 6 tradicionais algoritmos de regressão, considerando para tanto, 10 datasets artificialmente modificados para manterem diferentes níveis de dados ausentes. Resultados da análise experimental mostram que a solução proposta apresenta uma boa relação custo-benefício entre compreensibilidade dos modelos e desempenho preditivo, especialmente para as bases de dados com mais de 40% de dados ausentes.
312

Impacto de diferentes algoritmos e geometria de depósitos minerais no planejamento de longo prazo

Candido, Mateus Toniolo January 2012 (has links)
O principal objetivo do planejamento mineiro é determinar a distribuição de quantidade e qualidade do minério ao longo de uma sequencia de tempo, ou seja, determinar o minério necessário para tornar o projeto técnica e economicamente viável. Esse sequenciamento é fundamental para o sucesso financeiro de uma atividade de mineração e, atualmente, este sequenciamento ideal pode ser obtido por meio de vários aplicativos computacionais de mineração. Cada um deles têm suas particularidades que geralmente não são levadas em conta. As alterações resultantes de modelos diferentes de cava final podem ter impacto significativo sobre o sucesso da empresa tanto financeira quanto operacionalmente. A maioria dos estudos de planejamento de lavra apresenta a cava final calculada por um único algoritmo escolhido pelo engenheiro de projeto, devido à disponibilidade ou conhecimento em determinado aplicativo computacional. É importante que se tenha em mente que o objetivo do planejamento de lavra a longo prazo é definir os limites de cava final e o projeto de exaustão para um depósito mineral com base em uma função benefício, considerando fundamentalmente as receitas e os custos envolvidos desde a lavra até o processo e comercialização do produto. Além disso, restringe aspectos técnicos e geométricos do projeto, como ângulos de inclinação dos taludes, alturas de bancada, quantidades e teor de minério, bem como sua distribuição espacial, além da procura pelo máximo valor presente líquido, é necessário na tarefa de otimização de cava. Existem muitos algoritmos implementados em diversos programas comerciais para o cálculo da cava final e sequenciamento de longo prazo e, neste sentido, um dos objetivos deste trabalho é verificar a eficácia dos algoritmos que obtiveram maior reconhecimento dentro da indústria mineral, além de verificar se existem diferenças relacionadas com o tipo de mineralização e depósito onde eles são aplicados. A comparação é realizada usando dois programas comerciais e dois algoritmos diferentes para determinar se as diferenças podem ser observadas para tipos de mineralização distintos foi feita a implementação de dois algoritmos em modelos de blocos tridimensionais estimados e analisados para três tipos de depósito, um corpo de minério de cobre, um grande depósito de fosfato ígneo e uma mineralização aurífera, de espessura pequena relativamente à extensão em profundidade, apresentando um mergulho subvertical. / The main objective of mine planning is to determine ore quantity and quality distribution along a time sequence, i.e., scheduling the ore necessary to make the project technically and economic viable. These temporal sequences are fundamental for the financial success of a mine activity and presently this optimal sequence can be obtained through various mining software. Each of them has its particularities which generally are not taken into account. Changes resulting from different final pit models can have significant impact on the success of enterprise both financial and operational. Most studies in mine planning present the final pit calculated by only one algorithm chosen by the author, due to software availability or knowledge. The goal of the long-term mine planning is to define the boundaries of final pit for mine based on a profit function considering selling price discounted from mining and processing costs. Besides, technical constrains and geometrical aspects of the project, such as slope angles, bench heights, ore grade quantities and spatial distribution, looking for maximum net value are also necessary for the pit optimization task. There are many algorithms implemented in various commercial softwares for the ultimate pit calculation and one of the purposes of this work is to check the effectiveness of the algorithms that obtained greater recognition within the mineral industry and if there are differences related to the type of mineralization and deposit where they are applied. The comparison is performed using the two commercial softwares, and two different algorithms to determine if differences can be observed to different mineralization types. The implementation of the two algorithms in three-dimensional block models estimated and analyzed for three types of deposits: a massive copper orebody, a large igneous phosphate and a subvertical gold vein type.
313

Registro e alinhamento de imagens de profundidade obtidas com digitalizador para o modelamento de objetos com análise experimental do algoritmo ICP / Registration and alignment of depth images, scanner obteined, for object modeling, using the ICP algorithm

Bonilla Naranjo, Jose Alejandro 10 1900 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Mecânica, 2012. / Submitted by Albânia Cézar de Melo (albania@bce.unb.br) on 2013-04-12T14:02:16Z No. of bitstreams: 1 2012_JoseAlejandroBonillaNaranjo.pdf: 2703496 bytes, checksum: 6a74687137ee451b79f64e3929ad36d6 (MD5) / Approved for entry into archive by Guimaraes Jacqueline(jacqueline.guimaraes@bce.unb.br) on 2013-05-07T11:51:33Z (GMT) No. of bitstreams: 1 2012_JoseAlejandroBonillaNaranjo.pdf: 2703496 bytes, checksum: 6a74687137ee451b79f64e3929ad36d6 (MD5) / Made available in DSpace on 2013-05-07T11:51:33Z (GMT). No. of bitstreams: 1 2012_JoseAlejandroBonillaNaranjo.pdf: 2703496 bytes, checksum: 6a74687137ee451b79f64e3929ad36d6 (MD5) / Este trabalho tem o foco na utilização de técnicas de visão computacional para o desenvolvimento de algoritmos de registro, alinhamento e modelamento de objetos em 3-D. O registro de imagens é realizado utilizando duas metodologias no algoritmo ICP (Iterative Closest Point). Na sua etapa de Busca de correspondências a primeira metodologia, chamada força bruta , encontra os pontos correspondentes com base nas distâncias entre os pontos da nuvem de pontos base com relação à nuvem de pontos modelo, e a segunda, chamada kd tree , acelera a busca do ponto mais próximo entre duas nuvens de pontos. Além disso, é construído um algoritmo que utiliza múltiplas imagens de profundidade para realizar o modelamento 3-D de um objeto utilizando o algoritmo ICP. Este algoritmo requer conhecimento do sistema estudado para realizar o alinhamento prévio das nuvens de pontos e, osteriormente, efetuar o registro de cada uma das nuvens de pontos do mesmo objeto em diferentes posições para reconstrui-lo digitalmente. A convergência do algoritmo ICP é determinada utilizando o Erro Quadrático Médio (Root Mean Square - RMS), é um parâmetro que serve como critério de parada e medição da convergência no registro em cada iteração. O principal aporte desta pesquisa foi oferecer um uso diferente do algoritmo ICP para o modelamento de objetos. Não obstante seja preciso reconhecer que o método desenvolvido neste trabalho é um pouco primitivo no sentido de que ainda depende em muitas etapas da intervenção humana. É o ponto de partida para diversas pesquisas futuras no campo do modelamento de objetos, que atualmente, é considerado a obra-prima da reconstrução de modelos, já que oferece o nível mais alto de desenvolvimento na invenção de técnicas e algoritmos. ______________________________________________________________________________ ABSTRACT / This work focuses on the use of computer vision techniques to develop registration algorithms, alignment and 3D object modeling. The image registration process is performed using two methodologies for the ICP algorithm (Iterative Closest Point) during its "Matching" stage. The first methodology, called "brute force", finds the corresponding points based on the distances between the points from the base" point cloud and the "Model" point cloud, the second one, called "KD Tree", accelerates the search of the nearest point between two point clouds. Furthermore, another algorithm is built to perform the object modeling task, which requires knowledge of the system to perform a preliminary alignment of the point clouds to proceed to the registration of a pair of multiple point clouds of the same object from different positions and to digitally reconstruct it. Furthermore, an algorithm is built which uses multiple depth images to perform the 3D modeling of an object using the ICP algorithm. This algorithm requires knowledge of the studied system to perform a previous alignment of the point clouds and, subsequently, perform the registration of each of the point clouds of the same object in different positions to digitally reconstruct it. The convergence of the algorithm ICP is determined using the Root Mean Square, although not an enough condition to ensure the convergence of the algorithm, this is a parameter that serves as a stop criterion and convergence measurement at each iteration record. The main contribution of this research is to offer a different use for the ICP algorithm for object modeling. Nevertheless, it must be recognized that the method developed in this work is primitive in the sense that it still depends on many stages of human intervention. Thus this is the starting point for future research in the field of object modeling, currently considered the "masterpiece" of model reconstruction, given that it offers the highest level of development in the invention of techniques and algorithms.
314

Uma metodologia híbrida de otimização aplicada às pás de turbinas hidráulicas axiais / A hybrid optimization method applied to axial turbine runners

Rodrigues, Anna Paula de Sousa Parente 06 June 2012 (has links)
Tese (doutorado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Mecânica, 2012. / Submitted by Alaíde Gonçalves dos Santos (alaide@unb.br) on 2013-05-22T15:17:01Z No. of bitstreams: 1 2012_AnnaPauladeSousaParenteRodrigues.PDF: 6383616 bytes, checksum: 9b60bc89be69d6f650b784ecb59ea9d3 (MD5) / Approved for entry into archive by Guimaraes Jacqueline(jacqueline.guimaraes@bce.unb.br) on 2013-05-22T15:27:53Z (GMT) No. of bitstreams: 1 2012_AnnaPauladeSousaParenteRodrigues.PDF: 6383616 bytes, checksum: 9b60bc89be69d6f650b784ecb59ea9d3 (MD5) / Made available in DSpace on 2013-05-22T15:27:53Z (GMT). No. of bitstreams: 1 2012_AnnaPauladeSousaParenteRodrigues.PDF: 6383616 bytes, checksum: 9b60bc89be69d6f650b784ecb59ea9d3 (MD5) / Este trabalho apresenta uma metodologia de otimização para geometria de pás de turbinas hidráulicas axiais. O principal objetivo é determinar a geometria de pá que melhor se adaptará às condições de escoamento e funcionamento impostas, melhorando assim o desempenho dessa turbina. A motivação deste trabalho, decorre da necessidade cada vez maior do "melhor" projeto, em um curto período de tempo, fazendo com que esforços para a concepção de novas metodologias de otimização e ciclos de projeto, sejam desenvolvidos. A otimização se dará através da junção das técnicas de otimização heurísticas: Algoritmos Genéticos (AG) e Otimização por Enxame de Partículas (PSO- Particle Swarm Optimization). O principal objetivo dessa junção é a busca por um método de otimização mais robusto e eficiente na determinação da melhor geometria dessas pás. Dessa forma, o desempenho das pés é considerada como função objetivo. Métodos de dinâmica dos fluidos computacional (CFD- Computational Fluid Dynamics) são utilizados como ferramenta para o cálculo desse desempenho. Essa metodologia é aplicada para uma turbina hidrocinética e uma turbina do tipo bulbo. Os resultados provenientes da otimização da turbina hidrocinética são comparados, para diversos pontos de operação, com valores obtidos através de metodologias de otimizações anteriores. O que proporcionou a comprovação do melhor desempenho do algoritmo híbrido AG-PSO, sendo este posteriormente aplicado à otimização de forma das pás de uma turbina bulbo. Os resultados apresentam um ganho na potência (turbina hidrocinética) e rendimento (turbina bulbo) de saída do rotor otimizado via AG-PSO, além de uma melhora no tempo de processamento demonstrando assim a viabilidade do uso dessa metodologia para a geração de geometrias ótimas de pás de rotores axiais. _______________________________________________________________________________________ ABSTRACT / This thesis presents a methodology as optimization method for the blades of axial turbine runners. The aim is to determine the optimal shape for the blade, considering a specific flow condition and operation point, improving this turbine performance. The motivation behind this work is based on search of the "best"design, increasingly, in a short time, resulting in efforts to new optimization methods and design cycles. The optimization method combines two heuristic optimization techniques: Genetics algorithms (GA) and particle swarm optimization (PSO). The addition of these two techniques in one algorithm (GA-PSO) allows an optimization method more robust and efficient for the purpose of optimal runner's shape. The objective function to be optimized is the performance generated by the rotor. To computation of the performance by the turbine blades, a commercial CFD (Computational Fluid Dynamics) code is used. This methodology is applied to a hidrokinetic turbine and a bulb turbine. The performances of the hidrokinetic turbine, for different operating conditions, of the optimized rotor with GA-PSO were compared to results of previous optimization methods. Proving that the hybrid GA-PSO algorithm has the best performance, being applied to optimization of an bulb runner shape. The results showed a gain in power output (hidrokinetic turbine) and efficiency (bulb turbine), beyond a improvement in the the processing time, which demonstrated the viability of the use of GA-PSO algorithm as a good design procedure for shape optimization of axial hydraulic turbines.
315

Um algoritmo para pesquisa aproximada de padrões baseado no método de Landau e Vishkin e uso de arranjos de sufixos para reduzir o uso de espaço

Miranda, Rodrigo César de Castro 19 December 2006 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2006. / Submitted by Kathryn Cardim Araujo (kathryn.cardim@gmail.com) on 2009-11-19T09:50:09Z No. of bitstreams: 1 2006_Rodrigo Cesar de Castro Miranda.pdf: 1217413 bytes, checksum: b795d83c3403735f516c590acd5e861f (MD5) / Approved for entry into archive by Carolina Campos(carolinacamposmaia@gmail.com) on 2009-11-26T16:50:22Z (GMT) No. of bitstreams: 1 2006_Rodrigo Cesar de Castro Miranda.pdf: 1217413 bytes, checksum: b795d83c3403735f516c590acd5e861f (MD5) / Made available in DSpace on 2009-11-26T16:50:22Z (GMT). No. of bitstreams: 1 2006_Rodrigo Cesar de Castro Miranda.pdf: 1217413 bytes, checksum: b795d83c3403735f516c590acd5e861f (MD5) Previous issue date: 2006-12-19 / A pesquisa aproximada de padrões em um texto é um problema importante para a ciência da computação. A pesquisa de algoritmos eficientes para solucionar esse problema influencia o desenvolvimento de aplicações em áreas como biologia computacional e pesquisa textual em grandes massas de dados (como a web, por exemplo). Mas para o tratamento de volumes de informação da magnitude envolvida nessas aplicações, o uso eficiente de tempo e espaço é uma condição essencial. A solução mais conhecida para esse problema é um algoritmo de programação dinâmica com complexidade O(mn) para duas palavras P e T de comprimento m e n. Landau e Vishkin desenvolveram um algoritmo que usa árvores de sufixos para acelerar a computação de caminhos da tabela de programação dinâmica que correspondem às ocorrências de um padrão em um texto com no máximo k diferenças, cuja complexidade de tempo e espaço está em O(kn). Nesse algoritmo as árvores de sufixos são utilizadas para permitir o cálculo em tempo constante do comprimento do maior prefixo comum entre quaisquer dois sufixos de P e T. Propusemos e implementamos uma variação do algoritmo de Landau e Vishkin que usa arranjos de sufixos para esse cálculo, melhorando o uso de espaço e mantendo um desempenho similar, e apresentamos a relação de custo e benefício de cada alternativa examinada. Com isso, desenvolvemos um mecanismo que torna possível substituir o uso de árvores de sufixos por arranjos de sufixos em determinadas aplicações, com ganho no uso de espaço, o que permite processar um volume maior de informações. A modificação realizada não é trivial, pois os algoritmos e estruturas de dados utilizadas são complexos, e os parâmetros de desempenho e uso de espaço rigorosos. _______________________________________________________________________________________ ABSTRACT / Approximate pattern matching in an important problem in computer science. The research of efficient solutions for this problem influences the development of applications in disciplines such as computational biology and searching the web, and in order to be able to handle such massive ammounts of information the efficient use of computational resources is a necessary condition. The most known solution for the approximate pattern matching problem is a dynamic programming algorithm which has O(mn) complexity given two strings P and T of length m and n. Landau and Vishkin developed a O(kn) algorithm which uses suffix trees for a faster computation of paths along the dynamic programming table that correspond to matches of a pattern in a text with at most k differences. In this algorithm the suffix trees are used for a constant-time calculus of the longest common extension of any two suffixes of P and T. We proposed and implemented a variation of Landau and Vishkin’s algorithm which uses suffix arrays for this calculus, improving the space requirements of the algorithm while keeping a similar running time performance, and present the costs and benefits of each algorithm. In order to achieve this we developed a technique that makes it possible to replace the use os suffix trees for suffix arrays in certain applications with an improved memory usage that allows the processing of a larger ammount of information. The modifications done were not trivial ones, as the algorithms and data structures involved are very complex, and the parameters for accepted running time performance and space usage are very rigorous.
316

Super-resolução de imagens de sensoriamento remoto

Telles Junior, Miguel Archanjo Bacellar Goes January 2008 (has links)
Tese (doutorado)—Universidade de Brasília, Instituto de Geociências, 2008. / Submitted by Luana Patrícia de Oliveira Porto (luana_porto_23@hotmail.com) on 2010-03-14T20:21:02Z No. of bitstreams: 1 2008_MiguelArchanjoBTJunior.pdf: 5700625 bytes, checksum: 050a324c32f61d43f4fffcccff6ac44d (MD5) / Approved for entry into archive by Daniel Ribeiro(daniel@bce.unb.br) on 2010-04-14T21:54:56Z (GMT) No. of bitstreams: 1 2008_MiguelArchanjoBTJunior.pdf: 5700625 bytes, checksum: 050a324c32f61d43f4fffcccff6ac44d (MD5) / Made available in DSpace on 2010-04-14T21:54:56Z (GMT). No. of bitstreams: 1 2008_MiguelArchanjoBTJunior.pdf: 5700625 bytes, checksum: 050a324c32f61d43f4fffcccff6ac44d (MD5) Previous issue date: 2008-06 / Esta tese apresenta um novo método de super-resolução baseado no algoritmo das projeções em conjuntos convexos (POCS). A super-resolução (SR) visa à obtenção de uma imagem de melhor resolução espacial (High Resolution – HR) a partir de uma ou mais imagens de menor resolução espacial (Low Resolution – LR). O método proposto utiliza a imagem LR para se obter, por intermédio de deslocamentos subpixel nas linhas e colunas, uma outra imagem LRd. Dessa forma os frames que é como são denominadas as imagens LR, dentro do algoritmo POCS, são obtidos a partir da imagem original. Esse deslocamento visa minimizar os efeitos de aliasing, e possibilitam a recuperação de novas informações para a imagem HR . O método proposto utiliza um algoritmo de interpolação com a função sinc para produzir a grade de alta resolução no algoritmo POCS. A metodologia utilizada fixa os parâmetros de entrada para todas as imagens. A finalidade é avaliar também, se o método é capaz de realizar a super-resolução sem que sejam necessários ajustes na configuração do algoritmo. Como a imagem HR possui resolução espacial melhor do que a imagem LR original, a avaliação do resultado utiliza a duas imagens de referência, uma obtida a partir da imagem HR, e outra obtida a partir da imagem LR, cada uma destas, para a avaliação de duas propriedades diferentes denominadas de síntese e consistência, respectivamente. Para isto é utilizado um protocolo de avaliação que é capaz mensurar tanto as informações estruturais da imagem como a preservação da informação espectral. Os dados utilizados para a avaliação do método consistem de imagens dos seguintes satélites/sensores: CBERS-2/CCD; Landsat 7/ETM+; Quickbird/MSS; e CBERS-2B/CCD, que possuem resolução espacial entre 2,4m e 30m. Essas imagens foram divididas em casos conforme o satélite e região geográfica que abrangem. Os resultados obtidos são apresentados na forma de tabelas com todos os indicadores utilizados para cada uma das propriedades síntese e consistência. Também são apresentados: Uma composição colorida de cada imagem, as bandas espectrais e perfis radiométricos. O método proposto consegue obter boa super-resolução das imagens preservando a informação espectral na maior parte dos casos estudados. As feições dos perfis radiométricos não foram alteradas. _________________________________________________________________________________ ABSTRACT / This thesis presents a new super-resolution (SR) method based on the algorithm of the projections onto convex sets (POCS). The aim of super-resolution is to take a set of one or more low-resolution (LR) input images to produce a higher-resolution (HR) image with more details. The proposed method uses the LR image to obtain, through subpixel shifts in the lines and columns directions, a LRd image. This procedure aims to reduce the aliasing effect and add new information (details) to the HR image. The proposed method uses a resampling algorithm based on sinc function to produce the high resolution grid into the POCS algorithm. The proposed methodology uses same settings parameters to the SR method for all the images. The purpose is to evaluate if the method is capable to accomplish the super-resolution without additional settings. A quality evaluation protocol is used to evaluate the SR results. This protocol is divided in two properties: synthesis and consistency. The first property uses a HR down sampled image by a factor of two, and the second property uses the original LR image sub sampled by a factor of two. The quality evaluation protocol can evaluate the structural information of the image and the degree of spectral distortion. In order to evaluate the method a set of images are used. The images are from the following satellites/sensors: CBERS-2/CCD; Landsat 7/ETM+; Quickbird/MSS; and CBERS-2B/CCD, with spatial resolution between 2,4m and 30m. Those images were divided in cases according to the satellite and geographical area coverage by the scene. The results are presented in the form of tables for the synthesis and consistency properties. The images LR and HR are presented in a RGB color composition and the spectral LR and HR bands are presented in single images. A radiometric profile of one spectral band is showed. The results of the proposed method present good super-resolution images and preserve the spectral information. The features of the radiometric profiles were not altered.
317

Desenvolvimento de estratégia de pré-codificação e de predição de canal para o enlace direto de Sistemas MIMO Multiusuário

Leite, João Paulo 03 August 2009 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, 2009. / Submitted by Larissa Ferreira dos Angelos (ferreirangelos@gmail.com) on 2010-04-27T19:13:15Z No. of bitstreams: 1 2009_JoaoPauloLeite.pdf: 2236316 bytes, checksum: 0d7b1e65f81c58bbc15f5459be01fefc (MD5) / Approved for entry into archive by Lucila Saraiva(lucilasaraiva1@gmail.com) on 2010-04-27T22:06:53Z (GMT) No. of bitstreams: 1 2009_JoaoPauloLeite.pdf: 2236316 bytes, checksum: 0d7b1e65f81c58bbc15f5459be01fefc (MD5) / Made available in DSpace on 2010-04-27T22:06:53Z (GMT). No. of bitstreams: 1 2009_JoaoPauloLeite.pdf: 2236316 bytes, checksum: 0d7b1e65f81c58bbc15f5459be01fefc (MD5) Previous issue date: 2009-08-03 / Técnicas de comunicação que utilizam múltiplas antenas (MIMO, multiple-input, multiple-output) são uma importante área de pesquisa, que têm atraído considerável atenção. Em especial, os sistemas MIMO multiusuário são capazes de combinar o aumento de capacidade proporcionado por sistemas MIMO e, quando informação sobre o estado de canal (CSI, channel state information) está disponível no transmissor, as propriedades espaciais do canal podem ser exploradas por meio da pré-codificação, de forma que os diversos usuários podem ser multiplexados espacialmente. Entretanto, a natureza variante no tempo do canal rádio móvel não é levada em consideração ao analisar o desempenho dos esquemas de précodificação. Este trabalho apresenta como primeira contribuição uma proposta de pré-codificador para o enlace direto de sistemas MIMO multiusuário que utiliza o conceito de perturbação contínua. Os resultados de simulação mostram que a técnica proposta apresenta desempenho superior ao das técnicas lineares atualmente relatadas na literatura. A segunda contribuição diz respeito à influência da informação desatualizada sobre o estado do canal no desempenho das técnicas de pré-codificação. É proposto um preditor adaptativo de canal que utiliza o algoritmo set-membership affine projection (SM-AP) como forma de compensar a desatualização da CSI causada pela variação temporal do canal de comunicação. Os resultados mostram que o preditor SM-AP, além de exibir baixo custo computacional, apresenta desempenho superior aos algoritmos clássicos NLMS (normalized least mean square) e RLS (recursive least squares. _________________________________________________________________________________________ ABSTRACT / Multiple-input, multiple-output communication techniques are an important area of research, and have attracted considerable attention. In particular, multiuser MIMO systems are capable of offering the higher link capacity of MIMO systems and, when channel state information (CSI) is available at the transmitter, the spatial properties of the channel can be exploited by precoding, so that multiple users can be spatially multiplexed. However, the time-varying nature of the mobile-radio channel is not taken into account when analyzing the performance of the precoding schemes. The first contribution of this work is the proposal of a precoding technique based on the concept of continuous perturbation. Simulation results show that the proposed technique outperforms the linear precoding techniques currently reported in the literature. The second contribution concerns the influence of the outdated CSI in the performance of the precoding techniques. An adaptive channel predictor based on the set-membership affine projection (SM-AP) filtering is proposed as a way to compensate the outdated CSI caused by the temporal variations of the communication channel. The results show that the SM-AP predictor has low computational cost and it has superior performance when compared to the classical algorithms NLMS (normalized least mean square) and RLS (recursive least squares).
318

Representação combinatória e algébrica das permutações na análise do problema de rearranjo de genomas por reversões

Lima, Thaynara Arielly de January 2010 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Matemática, 2010. / Submitted by Jaqueline Ferreira de Souza (jaquefs.braz@gmail.com) on 2010-11-11T15:06:08Z No. of bitstreams: 1 2010_ThaynaraAriellydeLima.pdf: 425950 bytes, checksum: b13ed7f0e0a2cae760f76c7a3f7dba18 (MD5) / Approved for entry into archive by Daniel Ribeiro(daniel@bce.unb.br) on 2010-12-03T22:42:49Z (GMT) No. of bitstreams: 1 2010_ThaynaraAriellydeLima.pdf: 425950 bytes, checksum: b13ed7f0e0a2cae760f76c7a3f7dba18 (MD5) / Made available in DSpace on 2010-12-03T22:42:49Z (GMT). No. of bitstreams: 1 2010_ThaynaraAriellydeLima.pdf: 425950 bytes, checksum: b13ed7f0e0a2cae760f76c7a3f7dba18 (MD5) / Na genômica comparativa soluções algoríıtmicas eficientes para o problema da dist ância de rearranjo de genomas são uma ferramenta importante para o desenvolvimento de software que permite estabelecer relacionamento evolutivo entre organismos, por exemplo para a constr~ção de árvores filogenéticas de organismos. Existem diversas operações sobre palavras que modelam mutações ocorridas nos genes dos seres vivos (e.g. reversões, transposições, troca de blocos, etc.). Restritos à operação de reversão o problema de rearranjo de genomas ´é NP-difícil. Sendo assim, é plausível considerar algoritmos de aproximação. O algoritmo conhecido que melhor aproxima a solução do problema de rearranjo via reversões tem raio de 1.375. No seu artigo seminal, Bafna e Pevzner apresentam soluções O(n2) de raios de aproximação 1.5 para permutações com sinal e 7 4 para permutações sem sinal. Neste trabalho propõ-se um uso cuidadoso e discriminado entre as representações combinatória (palavras e grafos de pontos de quebra) e algébrica (ciclos de permuta ções) das permutações, que contribuirão para analisar com precisão e de maneira adequada diversas características do problema da distância de reversão e das soluções apresentadas por Bafna e Pevzner. _________________________________________________________________________________ ABSTRACT / Efficient algorithmic solutions to the problem of genome rearrangements in comparative genomics are an important tool for the development of software allowing one to estabilish the evolution link between organisms, for instance the construction of phylogenetic trees. There are several string operations modelling mutations occurring inside genes (e.g. reversals, transpositions and block interchange, etc.). When restricted to the reversal operation, the problem of genome rearrangement is NP-hard. Thus, polynomially bounded approximated algorithms are considered to be admissible solutions. The best known approximated algorithm to solve the rearrangement problem through reversals has approximation ratio of 1.375. In their seminal paper, Bafna and Pevzner presented O(n2) solutions of ratio 1.5 for signed permutations and 7 4 for unsigned permutations. This work proposes a careful discrimination between the combinatory (strings and breakpoint graphs) and the algebraic (cycles of permutations) representations of permutations to analyse precisely, and in an adequate way, many of the problem characteristics and solutions presented by Bafna and Pevzner.
319

Técnicas para redução de singularidades em receptores ópticos dp-qpsk que utilizam o algoritmo do módulo constante

Rozental, Valery Nobl 02 August 2011 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, 2011. / Submitted by Shayane Marques Zica (marquacizh@uol.com.br) on 2011-10-10T20:40:43Z No. of bitstreams: 1 2011_ValeryNoblRozental.PDF: 9912457 bytes, checksum: c5116694d395382279d3ccfa0baa22df (MD5) / Approved for entry into archive by Leila Fernandes (leilabiblio@yahoo.com.br) on 2011-10-19T11:42:31Z (GMT) No. of bitstreams: 1 2011_ValeryNoblRozental.PDF: 9912457 bytes, checksum: c5116694d395382279d3ccfa0baa22df (MD5) / Made available in DSpace on 2011-10-19T11:42:31Z (GMT). No. of bitstreams: 1 2011_ValeryNoblRozental.PDF: 9912457 bytes, checksum: c5116694d395382279d3ccfa0baa22df (MD5) / Este trabalho investiga de forma experimental o desempenho de algumas técnicas para evitar singularidades em receptores ópticos de sistemas DP-QPSK que operam na taxa de transmissão de 112 Gb/s, e cujos equalizadores utilizam o algoritmo do módulo constante (CMA) para a desconvolução e a separação de fontes. O termo “singularidade” se refere `a situação na qual ambas as saídas do equalizador convergem para o mesmo sinal de entrada. Os dados experimentais são obtidos usando um arranjo de transmissão que emula mudanças arbitrárias de polarização, ruído óptico, dispersão cromática e a dispersão dos modos de polarização de primeira ordem. A influência destes efeitos na ocorrência de singularidades é analisada individualmente. Em particular, são comparados os seguintes algoritmos: • CMA padrão; • CMA com restrição; • CMA de dois estágios; • CMA para usuários múltiplos (MU-CMA). É demonstrado que todos os algoritmos reduzem o número de singularidades de forma eficiente, melhorando, assim, as propriedades de convergência do equalizador. No entanto, sob certas condições, os algoritmos MU-CMA e CMA com restrição – ambos utilizados para inicialização do sistema – apresentaram melhor desempenho em comparação com CMA de dois estágios, que não distingue entre as fases de inicialização e de operação do sistema. `A luz dos resultados, considerando a sua baixa complexidade computacional, o CMA com restrição é recomendado para uso em sistemas práticos. _______________________________________________________________________________ ABSTRACT / This work experimentally investigates the performance of several techniques for singularity avoidance in optical receivers of dual-polarization quadrature phase shift keying (DP-QPSK) systems operating at the transmission rate of 112 Gb/s, and whose equalizers use the Constant Modulus Algorithm (CMA) for deconvolution and source separation. The term “singularity” refers to the condition where both equalizer outputs converge to the same input signal. Experimental data is acquired using a transmission setup that emulates arbitrary polarization changes, optical noise, chromatic dispersion (CD) and first-order polarization mode dispersion (PMD). The influence of these effects on the singularity occurrence is individually analyzed. Specifically, the following algorithms are compared: • Standard CMA; • Constrained CMA; • Two-Stage CMA; • Multi-User (MU) CMA. It is shown that all algorithms effectively mitigate singularities, thus improving equalizer convergence properties. However, under certain conditions, the Multi-User and Constrained CMA algorithms – both used for system startup – outperformed the Two-Stage CMA, which does not distinguish between the system startup and operation phases. In light of the results, considering also its low computational complexity, the Constrained CMA is recommended to be used in practical systems.
320

Propriedades assintóticas do algoritmo MCEM para misturas de duas distribuições log normal na estimação da distribuição do comprimento da fibra da madeira

Macedo, Thiago de Lima 15 July 2011 (has links)
Dissertação (mestrado)—Universidade de Brasília, Departamento de Matemática, 2011. / Submitted by Shayane Marques Zica (marquacizh@uol.com.br) on 2011-11-10T15:44:19Z No. of bitstreams: 1 2011_ThiagodeLimaMacedo.pdf: 616004 bytes, checksum: 4d323fecdd949aeb2e30a16fbefcfc6d (MD5) / Approved for entry into archive by Leila Fernandes (leilabiblio@yahoo.com.br) on 2011-12-20T13:24:28Z (GMT) No. of bitstreams: 1 2011_ThiagodeLimaMacedo.pdf: 616004 bytes, checksum: 4d323fecdd949aeb2e30a16fbefcfc6d (MD5) / Made available in DSpace on 2011-12-20T13:24:28Z (GMT). No. of bitstreams: 1 2011_ThiagodeLimaMacedo.pdf: 616004 bytes, checksum: 4d323fecdd949aeb2e30a16fbefcfc6d (MD5) / Neste trabalho, estudamos um método de amostragem que leva em consideração a extração de núcleos de incremento em árvores plantadas, para estimar a distribuição das fibras da madeira. Consideramos o caso em que a distribuição do comprimento das fibras é uma mistura de duas distribuições lognormal e utilizamos o algoritmo MCEM para estimar os parâmetros do modelo. Porém, verificamos as propriedades de consistência e normalidade assintótica do estimador obtido via algoritmo MCEM, baseados no estudo de Svensson e Luna (2010). _______________________________________________________________________________ ABSTRACT / In this work, we study a sampling method which takes into account the extraction of increment cores to find the fibre wood length distribution in standing trees. We consider the case where the fibre length distributions is a mixture of two lognormal distributions and use the MCEM algorithm to find maximum likelihood estimates for the parameters of the model. Finally, we investigate the properties of consistency and asymptotic normality of the estimator obtained via the MCEM algorithm, based on the study by Svensson and Luna (2010).

Page generated in 0.032 seconds