• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 136
  • 22
  • Tagged with
  • 158
  • 158
  • 148
  • 83
  • 82
  • 34
  • 33
  • 20
  • 20
  • 16
  • 11
  • 11
  • 11
  • 10
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

[en] UNSUPERVISED CLASSIFICATION OF SATELLITE IMAGES / [pt] CLASSIFICAÇÃO NÃO-SUPERVISIONADA DE IMAGENS DE SENSORIAMENTO REMOTO

ALEXANDRE HENRIQUE LEAL NETO 12 June 2006 (has links)
[pt] A classificação e segmentação não-supervisionadas de imagens de sensoriamento remoto são examinadas neste trabalho. A classificação é realizada tomando-se como base o critério de Bayes, que busca minimizar o valor esperado do erro de classificação. Os algoritmos desenvolvidos foram propostos pressupondo-se que a estrutura das classes presentes na imagem podem ser bem modeladas por vetores aleatórios guassianos. Os classificadores convencionais, que só levam em conta a informação dos pixels de forma isolada, forma tratados sob a ótica da quantização vetorial. Em particular, foi proposto um algoritmo de classificação com base na quantização vetorial com restrição de entropia. O desempenho das técnicas de classificação é analisado obsevando-se a discrepância entre classificações, comparando-se as imagens classificadas com imagens referencia e classificando-se imagens sintéticas. A taxa de acerto, entre 80% e 95%. Este bom desempenho dos classificadores é limitado pelo fato de, em suas estruturas, levarem em conta a informação dos pixels de forma isolada. Buscamos, através da classificação de segmentos, incorporar informações de contexto em nossos classificadores. A classificação de segmentos levou a taxas de erros inferiores àquelas alcançadas por classificadores baseados em pixels isolados. Um algoritmo de segmentação, que incorpora ao modelo de classificação por pixels a influencia de sua vizinhança através de uma abordagem markoviana, é apresentado. / [en] Unsupervised classification and segmentation of satellite images are examined in this work. The classification is based on Bayes` criterion, which tries to minimize the expected value of the classification error. The algorthms developed were proposed postulating that the classes in the image are well modeled by gaussian random vectors. Conventional classifiers, which take into account only pixelwise information, were treated as vector quantizers. Specifically, it was proposed a classification algorithm based on entropy constrained vector. The behaviour of the classifiers is examined observing the discrepancy between classifications, comparing classified images with reference-images and classifyng sinthetic images. The percentage of pixels whitch are assigned to the same class as in the reference-images ranged from 80,0% to 95,0%. This good behaviour of the classidiers is limited by the fact that, in theirs structures, are taken into account only isolated pixel information. We have sought, by classifying segments, to introduce contextual information into the classifiers structure. The segments classidiers. A segmentation algorithm, which introduces contextual information into pixelwise classifier by a markovian approach, is presented.
32

[en] SUB-BAND IMAGE CODING / [pt] CODIFICAÇÃO DE IMAGENS POR DECOMPOSIÇÃO EM SUB-BANDAS

EDMAR DA COSTA VASCONCELLOS 05 July 2006 (has links)
[pt] Este trabalho aborda o problema da compressão de imagens explorando a técnica de codificação por sub-bandas(SBB). Como estrutura básica, usada na primeira parte do trabalho, tem-se a divisão da imagem em 16 sub-bandas buscando replicar os resultados de woods [1]. As componentes das 16 SBB são quantizadas e codificadas, e bits são alocados às SBB usando como critério a minimização do erro médio quadrático. Os quantizadores são projetados segundo uma distribuição Gaussiana Generalizada. Neste processo de codificação, a sub-banda de mais baixa freqüência é codificada com DPCM, enquanto as demais SBB são codificadas por PCM. Como inovação, é proposto o uso do algoritmo de Lempel-Ziv na codificação sem perdas (compactação) das sub-bandas quantizadas. Na compactação são empregados os algoritmos de Huffman e LZW (modificação do LZA). Os resultados das simulações são apresentados em termos da taxa (bits/pixel) versus relação sinal ruído de pico e em termos de analise subjetiva das imagens reconstruídas. Os resultados obtidos indicam um desempenho de compressão superior quanto o algoritmo de Huffman é usado, comparado com o algoritmo LZW. A melhoria de desempenho, na técnica de decomposição em sub-bandas, observada com o algoritmo de Huffman foi superior (2dB acima). Todavia, tendo em vista as vantagens da universalidade do algoritmo de Lempel-Ziv, deve-se continuar a investigar o seu desempenho implementado de forma diferente do explorado neste trabalho. / [en] This work focus on the problem of image compression, with exploring the techniques of subband coding. The basic structure, used in the sirst part of this tesis, encompass the uniform decomposition of the image into 16 subbands. This procedure aims at reproducing the reults of Woods [1]. The component of the 16 subbands are quatized and coded and bits are optimally allocated among the subbands to minimize the mean-squared error. The quantizers desingned match the Generelized Gaussian Distribuition, which model the subband components. In the coding process, the lowest subband is DPCM coded while the higher subbands are coded with PCM. As an innovation, it is proposed the use of the algorithm LZW for coding without error (compaction) the quantized subbands. In the compactation process, the Huffamn and LZW algorithms are used. The simulation results are presented in terms of rate (bits/pel) versus peak signal-to-noise and subjective quality. The performance of the subband decomposition tecnique obtained with the Huffamn´s algorithm is about 2dB better than that obtained with the LZW. The universality of the Lempel-Ziv algorithm is, however, an advantage that leads us to think that further investigation should still be pursued.
33

[en] DISCRETE WAVELET TRANFORM IN CONNECTION WITH THE LOSSY LEMPEL-ZIV CODE / [pt] COMPRESSÃO DE IMAGENS USANDO A TRANSFORMADA WAVELET DISCRETA ASSOCIADA AO CÓDIGO DE LEMPEL-ZIG COM PERDAS

SERGIO MARCONDES KNUST 19 July 2006 (has links)
[pt] Neste trabalho é investigada uma técnica de compressão de imagens empregando a Transformada Wavelet Discreta em conexão com o código de compressão mLLZ/d, que é baseado no algoritmo de Lempel-zig com perdas. Primeiramente é apresentada a teoria das wavelets e são discutidos diversos códigos para compactação e compressão baseados no algoritmo de Lempel-Ziv. Em seguida, são apresentados os resultados de diversas simulações realizadas com quatro imagens comumente empregadas neste tipo de análise, de forma a avaliar o desempenho do método em termos de qualidade objetiva e subjetiva. Finalmente, os resultados foram analisados e comparados aos obtidos com outras técnicas de compressão, publicadas em dissertações de mestrado anteriores. / [en] In this work an image compression method employing the Discrete Wavelet Tranform in connection with the Lossy Lempel-Ziv code mLLZ/d is investigated. At first, the wavelet theory as well as several lossy and lossless codes based on the Lempel-ziv algorithm are discussed. Afterwards, simulations are implemented using four images, which are commonly used as a standard for this type of analysis, in order to evaluate the performance of the method in terms of both objective and subjective quality. Finally, the results are analyzed and compared to the ones obtained with other compression techniques, already published in former thesis.
34

[en] PROBABILISTIC POWER FLOW: THEORY AND APPLICATION / [pt] FLUXO DE POTÊNCIA PROBABILÍSTICO: TEORIA E APLICAÇÃO

VINICIUS LEAL ARIENTI 08 June 2006 (has links)
[pt] Um algoritmo de Fluxo de Potência Probabilístico (FPP) permite avaliar a probabilidade de ocorrência de certos eventos em um sistema de potência, baseado em seu desempenho passado, na previsão das demandas e nas disponibilidades das unidades geradoras e equipamentos de transmissão. Tais eventos são sobrecargas, sobre/subtensões e insuficiência de geração de potência ativa/reativa. As probabilidades ou riscos associados a tais eventos são medidas ou índices de adequação relacionando cargas, equipamentos disponíveis e a política operativa. Pode-se dizer que a formulação de FPP mais realista até hoje proposta possui duas restrições básicas. A primeira é a dificuldade de se obter simultaneamente e de forma eficiente, todos os índices de adequação. A segunda está relacionada com a precisão do algoritmo para as grandezas reativas, mesmo para níveis de incerteza não muito elevados. Neste trabalho, além de ser proposto um novo algoritmo de solução que resolve as restrições anteriormente citadas de forma bastante simples e eficaz, são demonstradas diversas aplicações dos algoritmos de FPP e também definidas metodologias de utilização desta ferramenta em estudos de planejamento da operação e da expansão, ressaltando-se ainda as similaridades com a análise de confiabilidade global de sistemas de potência. A aplicação dos métodos de FPP, obtendo informações adicionais para complementar a abordagem determinística convencional, tem demonstrado ser uma ferramenta auxiliar bastente útil no processo de tomada de decisão. As vantagens da inclusão deste algoritmo no rol de técnicas imprescindíveis aos engenheiros vem incentivando o uso desta abordagem de maneira mais ampla. / [en] A Probabilistic Power Flow Algorithm (PPF) allows the practical evaluation of the probability of occurrence of power system events, based on their historical performance, load forecast and availability of generating units and transmission equipment. Such events are overlads, undervoltages, overvoltages and indufficiency of active/reactive power generation. The probabilities or risks associated to these events are adequacy measures, or indices, linking loads, available equipment and operational policies. The practical PPF formulations available in literature present two main drawbacks. The first one is related with the computational difficulty in simultaneously obtaining all basic adequacy indices, within an efficient computational scheme. The second is related with the accuracy of calculated reactive figures, even in the case of modest uncertainty levels. In this work, a new, simple and efficient PPF algorithm, which alleviates the previous drawbacks, is proposed. Several practical applications of the proposed PPF algorithm are described as well as methodologies for its use in operational and expansion planning. Also, the similarities between PPF and composite reliability evaluation algorithms are emphasized. The application of PPF methods, providing additional information to the conventional deterministic approaches, has shown to be a very important auxiliary tool in the decision making process, thus contributing for the broad use of probabilistic methods.
35

[en] MOORING PATTERN OPTIMIZATION USING GENETIC ALGORITHMS / [pt] OTIMIZAÇÃO DA DISPOSIÇÃO DE LINHAS DE ANCORAGEM UTILIZANDO ALGORITMOS GENÉTICOS

ALONSO JOAQUIN JUVINAO CARBONO 03 May 2006 (has links)
[pt] Com o crescimento da demanda de óleo, as empresas de petróleo têm sido forçadas a explorar novas reservas em águas cada vez mais profundas. Em função do alto custo das operações de exploração de petróleo, torna-se necessário o desenvolvimento de tecnologias capazes de aumentar a eficiência e reduzir os custos envolvidos. Neste contexto, a utilização de unidades flutuantes torna-se cada vez mais freqüente em águas profundas. O posicionamento das unidades flutuantes durante as operações de exploração de óleo é garantido pelas linhas de ancoragem, que são estruturas flexíveis compostas, geralmente, por trechos de aço, amarras e/ou cabos sintéticos. O presente trabalho apresenta o desenvolvimento de um Algoritmo Genético (AG) para solucionar o problema da disposição das linhas de ancoragem de unidades flutuantes utilizadas nas operações de exploração de petróleo. A distribuição das linhas de ancoragem é um dos fatores que influencia diretamente nos deslocamentos (offsets) sofridos pelas unidades flutuantes quando submetidas às ações ambientais, como ventos, ondas e correntes. Desta forma, o AG busca uma disposição ótima das linhas de ancoragem cujo objetivo final é a minimização dos deslocamentos da unidade flutuante. Os operadores básicos utilizados por este algoritmo são mutação, crossover e seleção. Neste trabalho, foi adotada a técnica steady-state, que só efetua a substituição de um ou dois indivíduos por geração. O cálculo da posição de equilíbrio estático da unidade flutuante é feito aplicando-se a equação da catenária para cada linha de ancoragem com o objetivo de se obterem as forças de restauração na unidade, e empregando-se um processo iterativo para calcular a sua posição final de equilíbrio. / [en] With the increasing demand for oil, oil companies have been forced to exploit new fields in deep waters. Due to the high cost of oil exploitation operations, the development of technologies capable of increasing efficiency and reducing costs is crucial. In this context, the use of floating units in deep waters has become more frequent. The positioning of the floating units during oil exploitation operations is done using mooring lines, which are flexible structures usually made of steel wire, steel chain and/or synthetic cables. This work presents the development of a Genetic Algorithm (GA) procedure to solve the problem of the mooring pattern of floating units used in oil exploitation operations. The distribution of mooring lines is one of the factors that directly influence the displacements (offsets) suffered by floating units when subjected to environmental conditions such as winds, waves and currents. Thus, the GA seeks an optimum distribution of the mooring lines whose final goal is to minimize the units´ displacements. The basic operators used in this algorithm are mutation, crossover and selection. In the present work, the steady- state GA has been implemented, which performs the substitution of only one or two individuals per generation. The computation of the floating unit´s static equilibrium position is accomplished by applying the catenary equilibrium equation to each mooring line in order to obtain the out-of-balance forces on the unit, and by using an iterative process to compute the final unit equilibrium position.
36

[en] DISPARITY MAPS USING GRAPH CUTS WITH MULTI-RESOLUTION / [pt] MAPAS DE DISPARIDADE UTILIZANDO CORTES DE GRAFO E MULTI-RESOLUÇÃO

CARLOS VINICIUS SOUSA DE OLIVEIRA 05 October 2010 (has links)
[pt] Reconstruir a informação 3D de uma cena é uma tarefa bastante comum em Visão Computacional. Uma das técnicas mais utilizadas para realizar esta tarefa é a correspondência por estéreo, que consiste basicamente em, dadas duas imagens referentes a uma mesma cena vista de pontos diferentes, determinar os pontos correspondentes entre essas duas imagens e armazenar essa informação em um mapa de disparidades. Até hoje diversos métodos foram propostos para resolver o problema de estéreo com esforço computacional viável e mantendo a qualidade dos resultados. Essa, entretanto, é uma tarefa bastante árdua e que difícilmente alcança resultados precisos com pouco esforço computacional. Nesse âmbito, uma técnica que tem sido muito estudada são os Cortes de Grafo (Graph Cuts), que almeja resolver o problema de minimização de energia em tempo polinomial. Nesse caso o problema de estéreo é mapeado como um problema de minimização de energia e desta forma solucionado utilizando cortes de grafo. Neste trabalho estudamos as técnicas de cortes de grafo mais recentes e eficientes e propomos um método para a determinação de correspondências entre duas imagens num contexto de multi-resolução, no qual uma pirâmide Gaussiana para as imagens é construída e a técnica de cortes de grafo é aplicada em níveis menores, otimizando a performance e obtendo resultados mais precisos através da utilização do algoritmo de expansão-alfa. São revisadas as técnicas de cortes de grafo e de multi-resolução e os resultados obtidos são apresentados e avaliados em relação a métodos semelhantes. / [en] Reconstructing the 3D information of a scene is a common task in Computer Vision. Stereo matching is one of the most investigated techniques used to perform this task, which basically consists of, given two images of a scene seen from different view points, determining corresponding pixels in these two images and store this information in a disparity map. Several methods have been proposed to solve the stereo problem keeping good performance and giving good quality results. This is however a very arduos task which hardly achieves precise results with low computational power. In this context, the Graph Cuts method has been very much considered, which aims to solve the energy minimization problem in polinomial time. In this case the stereo problem can be modelled as an energy minimization problem and, thus solved using the Graph Cuts technique. In this work we investigate the most recent and efficient Graph Cuts methods and propose a method for establishing the correspondences between two images in the context of multi-resolution, in which a Gaussian pyramid for the input images is built and the Graph Cuts methods is applied in coarser levels, optimizing the performance and getting more precise results through the use of the alfa-expansion algorithm. The Graph Cuts and multi-resolution techniques are reviewed and the results of the proposed method are presented and evaluated compared to similar methods.
37

[en] MULTILATERAL WELLS DESIGN IN OIL RESERVOIR THROUGH GENETIC ALGORITHMS OPTIMIZATION / [pt] PROJETO DE POÇOS MULTILATERAIS EM RESERVATÓRIOS DE PETRÓLEO OTIMIZADOS POR ALGORITMOS GENÉTICOS

BRUNO MESSER 18 December 2009 (has links)
[pt] Um dos fatores mais importantes para recuperação de óleo de reservatórios petrolíferos é a configuração dos poços. Atualmente, na indústria, esse processo é feito de forma manual onde um especialista gera algumas poucas opções de configurações e utiliza a de melhor resultado. Este trabalho se propõe a investigar um sistema de apoio à decisão para otimizar a configuração dos poços utilizando Algoritmos Genéticos e o simulador de reservatórios IMEX. Os parâmetros otimizados são: o número de poços produtores e injetores, a posição, a inclinação, a direção e o comprimento de cada poço, o número de laterais de cada poço e o ponto da junta, a inclinação relativa ao poço, a direção e o comprimento de cada lateral. Na busca pela configuração ótima dos poços, o objetivo da otimização é minimizar o investimento inicial, minimizar a produção de água e maximizar a produção de óleo buscando maximizar o VPL do empreendimento. A otimização é conduzida respeitando as restrições de projeto, dadas por um engenheiro, e restrições de simulação, dadas pelo próprio modelo de reservatório. O modelo proposto foi avaliado utilizando-se sete reservatórios. Cinco destes são sintéticos cujas configurações ótimas são conhecidas, um semi-sintético e um reservatório real. Foram conduzidos testes de convergência onde o modelo se mostrou capaz de localizar e otimizar as zonas produtoras, chegando à alternativa ótima até 80% das vezes. Nos últimos dois reservatórios os resultados indicam que o sistema consegue encontrar configurações de poços com altos valores de VPL, superiores a soluções propostas por especialistas e por outros sistemas de otimização, com ganhos de VPL de até 37% sobre a alternativa proposta por um especialista para o reservatório real. / [en] One of the most important factors for recovering oil from oil reservoirs is the wells configuration. Now a days, on the industry, this process is conduced manually, where a specialist generates a few configuration options and uses the best one with best results. This work proposes to investigate a decision support system to optimize the wells’ configuration using Genetic Algorithms and the reservoir simulator IMEX. The optimized parameters include: the number of producers and injectors wells, the position, the inclination, the direction and the length of each well, the number of laterals for each well and the junction point, the inclination relative to the well and the length of each lateral. On the search of the optimal configuration of wells, the objective of the optimization is to minimize the initial investment, minimize the water production and maximize the oil production towards the maximization of the venture`s NPV. The optimization is conduced respecting the project`s restrictions, stated by an engineer, and the simulation`s restrictions, imposed by the reservoir model. The optimization model proposed was evaluated using seven reservoirs. Five of them are synthetic which the optimum well`s configuration are known, one semi-synthetic and one real reservoir. Convergence tests were conducted where the model confirmed to be able to locate and optimize the production zones, achieving the optimum alternative 80% of the times. On the last two reservoirs the results indicate that the system was able to achieve well configurations with high values of NPV, superiors from solutions given by specialists and by other optimization systems, with NPV´s increase reaching 37% over the specialist`s purposed alternative for the real reservoir case.
38

[en] DEVELOPMENT OF ALGORITHMS FOR ESTIMATING PARAMETERS OF HIGH VOLTAGE DIRECT AND ALTERNATING CURRENT TESTS IN ACCORDANCE WITH THE STANDARD ABNT NBR IEC 60060-1: 2013 / [pt] DESENVOLVIMENTO DE ALGORITMOS PARA ESTIMATIVA DE PARÂMETROS DE ENSAIOS EM ALTA TENSÃO EM CORRENTE ALTERNADA E CONTÍNUA DE ACORDO COM A NORMA ABNT NBR IEC 60060-1:2013

YURI DOS REIS OLIVEIRA 09 June 2017 (has links)
[pt] Os ensaios dielétricos em equipamentos para alta tensão em corrente alternada (ATCA) e corrente contínua (ATCC) requerem medições de grandezas elétricas, e as análises de desempenho dos equipamentos ensaiados são diretamente dependentes dos resultados obtidos por tais medições. Atualmente, para garantir a confiabilidade dos resultados dos ensaios, é necessário que a forma de onda da tensão aplicada ao equipamento esteja dentro dos níveis de distorção exigidos por norma. Para que ensaios possam ser realizados de forma normalizada, todos os parâmetros descritos na norma ABNT NBR IEC 60060-1:2013 devem ser monitorados durante os ensaios em ATCA e ATCC. Normalmente um Sistema de Medição para Alta Tensão (SMAT) é formado por um divisor de tensão, um cabo de transmissão e um multímetro de bancada, permitindo assim uma análise quantitativa da tensão de ensaio por meio da medição do valor eficaz e/ou do valor médio. Entretanto, esse SMAT é inadequado para o monitoramento de todos os parâmetros normalizados, restringindo sua aplicação a uma análise puramente quantitativa da tensão de ensaio. Deste modo, o objetivo desta dissertação foi o desenvolvimento e validação de algoritmos de medição que fossem capazes de estimar todos os parâmetros normalizados. Sua validação foi realizada mediante ensaios experimentais em alta e baixa tensão, assim como pelo processamento das formas de onda digitais padrão pertencentes ao rascunho da norma IEC 61083-4. Os resultados obtidos foram positivos e dentro de limites aceitáveis, possibilitando a implantação desses algoritmos de medição nos laboratórios de ensaios (AT1, AT2, AT3, LabUAT) do CEPEL. / [en] Dielectric tests on equipment with high voltage alternating current (HVAC) and direct current (HVDC) require measurements of electrical quantities, and the performance analysis of the tested equipment is directly dependent on the results obtained by those measurements. Currently, to ensure the reliability of the test results, the voltage waveforms applied to the equipment must be within the distortion levels required by standard. For tests to be performed in a standardized way, all parameters described in ABNT NBR IEC 60060-1: 2013 must be monitored during the HVAC and HVDC tests. Normally, a High Voltage Measurement System is formed by a voltage divider, a transmission cable and a multimeter, allowing a quantitative analysis of the test voltage by measuring the RMS value and/or mean value. However, this High Voltage Measurement System is inadequate for the monitoring all standard parameters, restricting its application to a purely quantitative analysis of the test voltage. Therefore, the objective of this dissertation was the development and validation of measurement algorithms that are able to estimate all the normalized parameters. Its validation was carried out through experimental tests in high and low voltage, as well as by the processing of the standard digital waveforms belonging to the draft of the standard IEC 61083-4. The results were positive and within acceptable limits, allowing the implementation of these measurement algorithms in CEPEL test (AT1, AT2, AT3, LabUAT) laboratories.
39

[en] EXPERIMENTAL STUDY OF CONJUNCTIVE QUERIES OPTIMIZATION WITH EXPENSIVE PREDICATES / [pt] ESTUDO EXPERIMENTAL DE ALGORITMOS PARA OTIMIZAÇÃO DE CONSULTAS CONJUNTIVAS COM PREDICADOS CAROS

RODRIGO SILVA GUARINO 12 July 2004 (has links)
[pt] As técnicas tradicionais de otimização de consultas em banco de dados possuem como heurística fundamental a organização dos predicados de uma consulta em dois tipos principais: predicados simples e predicados envolvendo junção(join) de tabelas. Como príncipio geral considera-se a priori os predicados envolvendo junção bem mais caros do que os predicados simples, e também que não existam diferenças significativas entre os tempos de processamento dos predicados simples, o que leva o otimizador a executar primeiro os predicados simples(em uma ordem qualquer), a fim de se diminuir a quantidade de tuplas que seriam necessárias à execução da junção. Essa consideração que se aplica bem à maioria das aplicações convencionais de banco de dados, passou a não se aplicar mais à novas aplicações que envolviam o preprocessamento de dados e/ou funções complexas nos predicados que não envolviam junções. Dessa forma esses novos predicados simples passaram a ter um tempo de processamento não mais desprezível em relação aos predicados que envolviam junções e também em relação a outros predicados simples. Dessa forma a heurística principal de otimização não se aplicava mais e tornou-se necessário o desenvolvimento de novas técnicas para resolver consultas que envolvessem esse novo tipo de predicado, que passou a ser chamado de predicado caro. O presente trabalho tem dois objetivos principais: apresentar um framework que possibilite o desenvolvimento, teste e análise integrada de algoritmos para o processamento de predicados caros, e analisar o desempenho de quatro implementações de algoritmos baseados na abordagem Cherry Picking, cujo o objetivo é explorar a dependência entre os dados que compõem as consultas. Os experimentos são conduzidos em consultas envolvendo predicados conjuntivos (AND) e a idéia geral é tentar avaliar os atributos em uma ordem que minimize o custo de avaliação geral das tuplas. / [en] Traditional database query optimization technique have as its main heuristic the organization of predicates in two main types: selection predicates and join predicates. Join predicates are considered much more expensive than selection predicates. In additional, it's also considered that there's no big difference among the costs of different selection predicates, what makes the optimizer executes them first in any order, reducing the number of tuples necessary to execute join predicates.This assumption, that is well applied in traditional database applications, becomes invalid in respect of recent database applications, that executes complex functions over complex data in selection predicates. In this cases, selection predicates are considered more expensive than join predicates and their costs cannot be considered equivalent anymore. This makes the main heuristic of push down selections invalid for these kind of new selection predicates which calls for new optimization techniques. These type of cue named expensive predicates. This work has two main objectives: Present a software that makes possible the development, test and integrat analisys of different algorithms for evaluating expensive predicates and analyse the performance of four algorithm's implementations that are based on Cherry Picking strategy, which aims at exploring the data dependency between input values to expensive predicates. The experiments considered conjunctive(AND) queries, and the general idea is to try evaluate the attributes in a order that minimizes the general cost of the tuples.
40

[en] OPTIMAL SENSORS LOCATION FOR FILTERING AND IDENTIFICATION OF DISTRIBUTED SYSTEMS / [pt] LOCALIZAÇÃO ÓTIMA DE SENSORES PARA FILTRAGEM E IDENTIFICAÇÃO EM SISTEMAS DISTRIBUÍDOS

HELIOS MALEBRANCHE OLBRISCH FRERES FILHO 10 April 2006 (has links)
[pt] Este trabalho trata do problema não-linear de estimação simultânea de parâmetros e estado, em sistemas distribuídos, e ainda do problema de localização de sensores associado. A classe de modelos em que estamos interessados é caracterizada por operadores lineares, não- limitados, densamente definidos e dissipativos. Nossa abordagem aplica técnicas de filtragem linear a uma seqüência de linearizações em torno de trajetórias convenientemente escolhidas. A localização ótima de sensores é feita de modo a minimizar uma medida do erro da estimatição simultânea de parâmetros e estados. A contribuição original desta tese compreende o desenvolvimento de : (1) um algoritmo que realiza simultaneamente a identificação e a filtragem de uma classe de sistemas distribuídos operando em ambiente estocástico, e (2) um esquema eficiente de localização ótima de sensores para o problema acima mencionado. Alguns exemplos simulados são apresentados com o objetivo de ilustrar os resultados aqui desenvolvidos / [en] This thesis deals with the nonlinear problem of simultaneous parameter and state estimation for distributed systems, including the associated optimal sensor location. The class of models under consideration is caracterrized by linear unbounded operators which are densely defined and dissipative. Our approach applies linear filtering techniquess to a sequence of linearizations at suitable trajectories. The optimal sensors location is carried out by minimizing a meassure of the state and parameter estimation error. The contribution of this thesis comprises: (1) an algorithm for simultaneous identification and filtering for a classs of distributed systems operting in a stochastic environment and (2) an efficient optimal sensors location scheme for the above mentioned problem. Some simulated exemples are presented to illustrate the proposed approach.

Page generated in 0.0554 seconds