31 |
[en] UNSUPERVISED CLASSIFICATION OF SATELLITE IMAGES / [pt] CLASSIFICAÇÃO NÃO-SUPERVISIONADA DE IMAGENS DE SENSORIAMENTO REMOTOALEXANDRE HENRIQUE LEAL NETO 12 June 2006 (has links)
[pt]
A classificação e segmentação não-supervisionadas de
imagens de sensoriamento remoto são examinadas neste
trabalho. A classificação é realizada tomando-se como base
o critério de Bayes, que busca minimizar o valor esperado
do erro de classificação. Os algoritmos desenvolvidos
foram propostos pressupondo-se que a estrutura das classes
presentes na imagem podem ser bem modeladas por vetores
aleatórios guassianos. Os classificadores convencionais,
que só levam em conta a informação dos pixels de forma
isolada, forma tratados sob a ótica da quantização
vetorial. Em particular, foi proposto um algoritmo de
classificação com base na quantização vetorial com
restrição de entropia. O desempenho das técnicas de
classificação é analisado obsevando-se a discrepância
entre classificações, comparando-se as imagens
classificadas com imagens referencia e classificando-se
imagens sintéticas. A taxa de acerto, entre 80% e 95%.
Este bom desempenho dos classificadores é limitado pelo
fato de, em suas estruturas, levarem em conta a informação
dos pixels de forma isolada. Buscamos, através da
classificação de segmentos, incorporar informações de
contexto em nossos classificadores. A classificação de
segmentos levou a taxas de erros inferiores àquelas
alcançadas por classificadores baseados em pixels
isolados. Um algoritmo de segmentação, que incorpora ao
modelo de classificação por pixels a influencia de sua
vizinhança através de uma abordagem markoviana, é
apresentado. / [en] Unsupervised classification and segmentation of satellite
images are examined in this work. The classification is
based on Bayes` criterion, which tries to minimize the
expected value of the classification error. The algorthms
developed were proposed postulating that the classes in
the image are well modeled by gaussian random vectors.
Conventional classifiers, which take into account only
pixelwise information, were treated as vector quantizers.
Specifically, it was proposed a classification algorithm
based on entropy constrained vector. The behaviour of the
classifiers is examined observing the discrepancy between
classifications, comparing classified images with
reference-images and classifyng sinthetic images. The
percentage of pixels whitch are assigned to the same class
as in the reference-images ranged from 80,0% to 95,0%.
This good behaviour of the classidiers is limited by the
fact that, in theirs structures, are taken into account
only isolated pixel information. We have sought, by
classifying segments, to introduce contextual information
into the classifiers structure. The segments classidiers.
A segmentation algorithm, which introduces contextual
information into pixelwise classifier by a markovian
approach, is presented.
|
32 |
[en] SUB-BAND IMAGE CODING / [pt] CODIFICAÇÃO DE IMAGENS POR DECOMPOSIÇÃO EM SUB-BANDASEDMAR DA COSTA VASCONCELLOS 05 July 2006 (has links)
[pt] Este trabalho aborda o problema da compressão de imagens
explorando a técnica de codificação por sub-bandas(SBB).
Como estrutura básica, usada na primeira parte do
trabalho, tem-se a divisão da imagem em 16 sub-bandas
buscando replicar os resultados de woods [1]. As
componentes das 16 SBB são quantizadas e codificadas, e
bits são alocados às SBB usando como critério a
minimização do erro médio quadrático. Os quantizadores são
projetados segundo uma distribuição Gaussiana Generalizada.
Neste processo de codificação, a sub-banda de mais baixa
freqüência é codificada com DPCM, enquanto as demais SBB
são codificadas por PCM.
Como inovação, é proposto o uso do algoritmo de Lempel-Ziv
na codificação sem perdas (compactação) das sub-bandas
quantizadas.
Na compactação são empregados os algoritmos de Huffman e
LZW (modificação do LZA). Os resultados das simulações são
apresentados em termos da taxa (bits/pixel) versus relação
sinal ruído de pico e em termos de analise subjetiva das
imagens reconstruídas. Os resultados obtidos indicam um
desempenho de compressão superior quanto o algoritmo de
Huffman é usado, comparado com o algoritmo LZW. A melhoria
de desempenho, na técnica de decomposição em sub-bandas,
observada com o algoritmo de Huffman foi superior (2dB
acima). Todavia, tendo em vista as vantagens da
universalidade do algoritmo de Lempel-Ziv, deve-se
continuar a investigar o seu desempenho implementado de
forma diferente do explorado neste trabalho. / [en] This work focus on the problem of image compression, with
exploring the techniques of subband coding.
The basic structure, used in the sirst part of this tesis,
encompass the uniform decomposition of the image into 16
subbands. This procedure aims at reproducing the reults of
Woods [1]. The component of the 16 subbands are quatized
and coded and bits are optimally allocated among the
subbands to minimize the mean-squared error. The
quantizers desingned match the Generelized Gaussian
Distribuition, which model the subband components.
In the coding process, the lowest subband is DPCM coded
while the higher subbands are coded with PCM.
As an innovation, it is proposed the use of the algorithm
LZW for coding without error (compaction) the quantized
subbands.
In the compactation process, the Huffamn and LZW
algorithms are used. The simulation results are presented
in terms of rate (bits/pel) versus peak signal-to-noise
and subjective quality. The performance of the subband
decomposition tecnique obtained with the Huffamn´s
algorithm is about 2dB better than that obtained with the
LZW. The universality of the Lempel-Ziv algorithm is,
however, an advantage that leads us to think that further
investigation should still be pursued.
|
33 |
[en] DISCRETE WAVELET TRANFORM IN CONNECTION WITH THE LOSSY LEMPEL-ZIV CODE / [pt] COMPRESSÃO DE IMAGENS USANDO A TRANSFORMADA WAVELET DISCRETA ASSOCIADA AO CÓDIGO DE LEMPEL-ZIG COM PERDASSERGIO MARCONDES KNUST 19 July 2006 (has links)
[pt] Neste trabalho é investigada uma técnica de compressão de
imagens empregando a Transformada Wavelet Discreta em
conexão com o código de compressão mLLZ/d, que é baseado
no algoritmo de Lempel-zig com perdas.
Primeiramente é apresentada a teoria das wavelets e são
discutidos diversos códigos para compactação e compressão
baseados no algoritmo de Lempel-Ziv. Em seguida, são
apresentados os resultados de diversas simulações
realizadas com quatro imagens comumente empregadas neste
tipo de análise, de forma a avaliar o desempenho do método
em termos de qualidade objetiva e subjetiva. Finalmente,
os resultados foram analisados e comparados aos obtidos
com outras técnicas de compressão, publicadas em
dissertações de mestrado anteriores. / [en] In this work an image compression method employing the
Discrete Wavelet Tranform in connection with the Lossy
Lempel-Ziv code mLLZ/d is investigated.
At first, the wavelet theory as well as several lossy and
lossless codes based on the Lempel-ziv algorithm are
discussed. Afterwards, simulations are implemented using
four images, which are commonly used as a standard for
this type of analysis, in order to evaluate the
performance of the method in terms of both objective and
subjective quality. Finally, the results are analyzed and
compared to the ones obtained with other compression
techniques, already published in former thesis.
|
34 |
[en] PROBABILISTIC POWER FLOW: THEORY AND APPLICATION / [pt] FLUXO DE POTÊNCIA PROBABILÍSTICO: TEORIA E APLICAÇÃOVINICIUS LEAL ARIENTI 08 June 2006 (has links)
[pt] Um algoritmo de Fluxo de Potência Probabilístico (FPP)
permite avaliar a probabilidade de ocorrência de certos
eventos em um sistema de potência, baseado em seu
desempenho passado, na previsão das demandas e nas
disponibilidades das unidades geradoras e equipamentos de
transmissão. Tais eventos são sobrecargas,
sobre/subtensões e insuficiência de geração de potência
ativa/reativa. As probabilidades ou riscos associados a
tais eventos são medidas ou índices de adequação
relacionando cargas, equipamentos disponíveis e a política
operativa.
Pode-se dizer que a formulação de FPP mais
realista até hoje proposta possui duas restrições básicas.
A primeira é a dificuldade de se obter simultaneamente e
de forma eficiente, todos os índices de adequação. A
segunda está relacionada com a precisão do algoritmo para
as grandezas reativas, mesmo para níveis de incerteza não
muito elevados.
Neste trabalho, além de ser proposto um novo
algoritmo de solução que resolve as restrições
anteriormente citadas de forma bastante simples e eficaz,
são demonstradas diversas aplicações dos algoritmos de FPP
e também definidas metodologias de utilização desta
ferramenta em estudos de planejamento da operação e da
expansão, ressaltando-se ainda as similaridades com a
análise de confiabilidade global de sistemas de potência.
A aplicação dos métodos de FPP, obtendo
informações adicionais para complementar a abordagem
determinística convencional, tem demonstrado ser uma
ferramenta auxiliar bastente útil no processo de tomada de
decisão. As vantagens da inclusão deste algoritmo no rol
de técnicas imprescindíveis aos engenheiros vem
incentivando o uso desta abordagem de maneira mais ampla. / [en] A Probabilistic Power Flow Algorithm (PPF) allows the
practical evaluation of the probability of occurrence of
power system events, based on their historical
performance, load forecast and availability of generating
units and transmission equipment. Such events are
overlads, undervoltages, overvoltages and indufficiency of
active/reactive power generation. The probabilities or
risks associated to these events are adequacy measures, or
indices, linking loads, available equipment and
operational policies.
The practical PPF formulations available in literature
present two main drawbacks. The first one is related with
the computational difficulty in simultaneously obtaining
all basic adequacy indices, within an efficient
computational scheme. The second is related with the
accuracy of calculated reactive figures, even in the case
of modest uncertainty levels.
In this work, a new, simple and efficient PPF
algorithm, which alleviates the previous drawbacks, is
proposed. Several practical applications of the proposed
PPF algorithm are described as well as methodologies for
its use in operational and expansion planning. Also, the
similarities between PPF and composite reliability
evaluation algorithms are emphasized.
The application of PPF methods, providing
additional information to the conventional deterministic
approaches, has shown to be a very important auxiliary
tool in the decision making process, thus contributing for
the broad use of probabilistic methods.
|
35 |
[en] MOORING PATTERN OPTIMIZATION USING GENETIC ALGORITHMS / [pt] OTIMIZAÇÃO DA DISPOSIÇÃO DE LINHAS DE ANCORAGEM UTILIZANDO ALGORITMOS GENÉTICOSALONSO JOAQUIN JUVINAO CARBONO 03 May 2006 (has links)
[pt] Com o crescimento da demanda de óleo, as empresas de
petróleo têm
sido forçadas a explorar novas reservas em águas cada vez
mais profundas. Em
função do alto custo das operações de exploração de
petróleo, torna-se
necessário o desenvolvimento de tecnologias capazes de
aumentar a eficiência
e reduzir os custos envolvidos. Neste contexto, a
utilização de unidades
flutuantes torna-se cada vez mais freqüente em águas
profundas. O
posicionamento das unidades flutuantes durante as
operações de exploração de
óleo é garantido pelas linhas de ancoragem, que são
estruturas flexíveis
compostas, geralmente, por trechos de aço, amarras e/ou
cabos sintéticos. O
presente trabalho apresenta o desenvolvimento de um
Algoritmo Genético (AG)
para solucionar o problema da disposição das linhas de
ancoragem de unidades
flutuantes utilizadas nas operações de exploração de
petróleo. A distribuição das
linhas de ancoragem é um dos fatores que influencia
diretamente nos
deslocamentos (offsets) sofridos pelas unidades flutuantes
quando submetidas
às ações ambientais, como ventos, ondas e correntes. Desta
forma, o AG busca
uma disposição ótima das linhas de ancoragem cujo objetivo
final é a
minimização dos deslocamentos da unidade flutuante. Os
operadores básicos
utilizados por este algoritmo são mutação, crossover e
seleção. Neste trabalho,
foi adotada a técnica steady-state, que só efetua a
substituição de um ou dois
indivíduos por geração. O cálculo da posição de equilíbrio
estático da unidade
flutuante é feito aplicando-se a equação da catenária para
cada linha de
ancoragem com o objetivo de se obterem as forças de
restauração na unidade, e
empregando-se um processo iterativo para calcular a sua
posição final de
equilíbrio. / [en] With the increasing demand for oil, oil companies have
been forced to
exploit new fields in deep waters. Due to the high cost of
oil exploitation
operations, the development of technologies capable of
increasing efficiency and
reducing costs is crucial. In this context, the use of
floating units in deep waters
has become more frequent. The positioning of the floating
units during oil
exploitation operations is done using mooring lines, which
are flexible structures
usually made of steel wire, steel chain and/or synthetic
cables. This work
presents the development of a Genetic Algorithm (GA)
procedure to solve the
problem of the mooring pattern of floating units used in
oil exploitation operations.
The distribution of mooring lines is one of the factors
that directly influence the
displacements (offsets) suffered by floating units when
subjected to
environmental conditions such as winds, waves and
currents. Thus, the GA
seeks an optimum distribution of the mooring lines whose
final goal is to minimize
the units´ displacements. The basic operators used in this
algorithm are mutation,
crossover and selection. In the present work, the steady-
state GA has been
implemented, which performs the substitution of only one
or two individuals per
generation. The computation of the floating unit´s static
equilibrium position is
accomplished by applying the catenary equilibrium equation
to each mooring line
in order to obtain the out-of-balance forces on the unit,
and by using an iterative
process to compute the final unit equilibrium position.
|
36 |
[en] DISPARITY MAPS USING GRAPH CUTS WITH MULTI-RESOLUTION / [pt] MAPAS DE DISPARIDADE UTILIZANDO CORTES DE GRAFO E MULTI-RESOLUÇÃOCARLOS VINICIUS SOUSA DE OLIVEIRA 05 October 2010 (has links)
[pt] Reconstruir a informação 3D de uma cena é uma tarefa bastante comum
em Visão Computacional. Uma das técnicas mais utilizadas para realizar
esta tarefa é a correspondência por estéreo, que consiste basicamente
em, dadas duas imagens referentes a uma mesma cena vista de pontos
diferentes, determinar os pontos correspondentes entre essas duas imagens
e armazenar essa informação em um mapa de disparidades. Até hoje
diversos métodos foram propostos para resolver o problema de estéreo com
esforço computacional viável e mantendo a qualidade dos resultados. Essa,
entretanto, é uma tarefa bastante árdua e que difícilmente alcança resultados
precisos com pouco esforço computacional. Nesse âmbito, uma técnica que
tem sido muito estudada são os Cortes de Grafo (Graph Cuts), que almeja
resolver o problema de minimização de energia em tempo polinomial. Nesse
caso o problema de estéreo é mapeado como um problema de minimização
de energia e desta forma solucionado utilizando cortes de grafo. Neste
trabalho estudamos as técnicas de cortes de grafo mais recentes e eficientes e
propomos um método para a determinação de correspondências entre duas
imagens num contexto de multi-resolução, no qual uma pirâmide Gaussiana
para as imagens é construída e a técnica de cortes de grafo é aplicada
em níveis menores, otimizando a performance e obtendo resultados mais
precisos através da utilização do algoritmo de expansão-alfa. São revisadas as
técnicas de cortes de grafo e de multi-resolução e os resultados obtidos são
apresentados e avaliados em relação a métodos semelhantes. / [en] Reconstructing the 3D information of a scene is a common task in Computer
Vision. Stereo matching is one of the most investigated techniques used
to perform this task, which basically consists of, given two images of a
scene seen from different view points, determining corresponding pixels in
these two images and store this information in a disparity map. Several
methods have been proposed to solve the stereo problem keeping good
performance and giving good quality results. This is however a very arduos
task which hardly achieves precise results with low computational power. In
this context, the Graph Cuts method has been very much considered, which
aims to solve the energy minimization problem in polinomial time. In this
case the stereo problem can be modelled as an energy minimization problem
and, thus solved using the Graph Cuts technique. In this work we investigate
the most recent and efficient Graph Cuts methods and propose a method
for establishing the correspondences between two images in the context
of multi-resolution, in which a Gaussian pyramid for the input images is
built and the Graph Cuts methods is applied in coarser levels, optimizing
the performance and getting more precise results through the use of the
alfa-expansion algorithm. The Graph Cuts and multi-resolution techniques
are reviewed and the results of the proposed method are presented and
evaluated compared to similar methods.
|
37 |
[en] MULTILATERAL WELLS DESIGN IN OIL RESERVOIR THROUGH GENETIC ALGORITHMS OPTIMIZATION / [pt] PROJETO DE POÇOS MULTILATERAIS EM RESERVATÓRIOS DE PETRÓLEO OTIMIZADOS POR ALGORITMOS GENÉTICOSBRUNO MESSER 18 December 2009 (has links)
[pt] Um dos fatores mais importantes para recuperação de óleo de reservatórios
petrolíferos é a configuração dos poços. Atualmente, na indústria, esse processo é
feito de forma manual onde um especialista gera algumas poucas opções de
configurações e utiliza a de melhor resultado. Este trabalho se propõe a investigar
um sistema de apoio à decisão para otimizar a configuração dos poços utilizando
Algoritmos Genéticos e o simulador de reservatórios IMEX. Os parâmetros
otimizados são: o número de poços produtores e injetores, a posição, a inclinação,
a direção e o comprimento de cada poço, o número de laterais de cada poço e o
ponto da junta, a inclinação relativa ao poço, a direção e o comprimento de cada
lateral. Na busca pela configuração ótima dos poços, o objetivo da otimização é
minimizar o investimento inicial, minimizar a produção de água e maximizar a
produção de óleo buscando maximizar o VPL do empreendimento. A otimização
é conduzida respeitando as restrições de projeto, dadas por um engenheiro, e
restrições de simulação, dadas pelo próprio modelo de reservatório. O modelo
proposto foi avaliado utilizando-se sete reservatórios. Cinco destes são sintéticos
cujas configurações ótimas são conhecidas, um semi-sintético e um reservatório
real. Foram conduzidos testes de convergência onde o modelo se mostrou capaz
de localizar e otimizar as zonas produtoras, chegando à alternativa ótima até 80%
das vezes. Nos últimos dois reservatórios os resultados indicam que o sistema
consegue encontrar configurações de poços com altos valores de VPL, superiores
a soluções propostas por especialistas e por outros sistemas de otimização, com
ganhos de VPL de até 37% sobre a alternativa proposta por um especialista para o
reservatório real. / [en] One of the most important factors for recovering oil from oil reservoirs is
the wells configuration. Now a days, on the industry, this process is conduced
manually, where a specialist generates a few configuration options and uses the
best one with best results. This work proposes to investigate a decision support
system to optimize the wells’ configuration using Genetic Algorithms and the
reservoir simulator IMEX. The optimized parameters include: the number of
producers and injectors wells, the position, the inclination, the direction and the
length of each well, the number of laterals for each well and the junction point,
the inclination relative to the well and the length of each lateral. On the search of
the optimal configuration of wells, the objective of the optimization is to
minimize the initial investment, minimize the water production and maximize the
oil production towards the maximization of the venture`s NPV. The optimization
is conduced respecting the project`s restrictions, stated by an engineer, and the
simulation`s restrictions, imposed by the reservoir model. The optimization model
proposed was evaluated using seven reservoirs. Five of them are synthetic which
the optimum well`s configuration are known, one semi-synthetic and one real
reservoir. Convergence tests were conducted where the model confirmed to be
able to locate and optimize the production zones, achieving the optimum
alternative 80% of the times. On the last two reservoirs the results indicate that the
system was able to achieve well configurations with high values of NPV,
superiors from solutions given by specialists and by other optimization systems,
with NPV´s increase reaching 37% over the specialist`s purposed alternative for
the real reservoir case.
|
38 |
[en] DEVELOPMENT OF ALGORITHMS FOR ESTIMATING PARAMETERS OF HIGH VOLTAGE DIRECT AND ALTERNATING CURRENT TESTS IN ACCORDANCE WITH THE STANDARD ABNT NBR IEC 60060-1: 2013 / [pt] DESENVOLVIMENTO DE ALGORITMOS PARA ESTIMATIVA DE PARÂMETROS DE ENSAIOS EM ALTA TENSÃO EM CORRENTE ALTERNADA E CONTÍNUA DE ACORDO COM A NORMA ABNT NBR IEC 60060-1:2013YURI DOS REIS OLIVEIRA 09 June 2017 (has links)
[pt] Os ensaios dielétricos em equipamentos para alta tensão em corrente alternada (ATCA) e corrente contínua (ATCC) requerem medições de grandezas elétricas, e as análises de desempenho dos equipamentos ensaiados são diretamente dependentes dos resultados obtidos por tais medições. Atualmente, para garantir a confiabilidade dos resultados dos ensaios, é necessário que a forma de onda da tensão aplicada ao equipamento esteja dentro dos níveis de distorção exigidos por norma. Para que ensaios possam ser realizados de forma normalizada, todos os parâmetros descritos na norma ABNT NBR IEC 60060-1:2013 devem ser monitorados durante os ensaios em ATCA e ATCC. Normalmente um Sistema de Medição para Alta Tensão (SMAT) é formado por um divisor de tensão, um cabo de transmissão e um multímetro de bancada, permitindo assim uma análise quantitativa da tensão de ensaio por meio da medição do valor eficaz e/ou do valor médio. Entretanto, esse SMAT é inadequado para o monitoramento de todos os parâmetros normalizados, restringindo sua aplicação a uma análise puramente quantitativa da tensão de ensaio. Deste modo, o objetivo desta dissertação foi o desenvolvimento e validação de algoritmos de medição que fossem capazes de estimar todos os parâmetros normalizados. Sua validação foi realizada mediante ensaios experimentais em alta e baixa tensão, assim como pelo processamento das formas de onda digitais padrão pertencentes ao rascunho da norma IEC 61083-4. Os resultados obtidos foram positivos e dentro de limites aceitáveis, possibilitando a implantação desses algoritmos de medição nos laboratórios de ensaios (AT1, AT2, AT3, LabUAT) do CEPEL. / [en] Dielectric tests on equipment with high voltage alternating current (HVAC) and direct current (HVDC) require measurements of electrical quantities, and the performance analysis of the tested equipment is directly dependent on the results obtained by those measurements. Currently, to ensure the reliability of the test results, the voltage waveforms applied to the equipment must be within the distortion levels required by standard. For tests to be performed in a standardized way, all parameters described in ABNT NBR IEC 60060-1: 2013 must be monitored during the HVAC and HVDC tests. Normally, a High Voltage Measurement System is formed by a voltage divider, a transmission cable and a multimeter, allowing a quantitative analysis of the test voltage by measuring the RMS value and/or mean value. However, this High Voltage Measurement System is inadequate for the monitoring all standard parameters, restricting its application to a purely quantitative analysis of the test voltage. Therefore, the objective of this dissertation was the development and validation of measurement algorithms that are able to estimate all the normalized parameters. Its validation was carried out through experimental tests in high and low voltage, as well as by the processing of the standard digital waveforms belonging to the draft of the standard IEC 61083-4. The results were positive and within acceptable limits, allowing the implementation of these measurement algorithms in CEPEL test (AT1, AT2, AT3, LabUAT) laboratories.
|
39 |
[en] EXPERIMENTAL STUDY OF CONJUNCTIVE QUERIES OPTIMIZATION WITH EXPENSIVE PREDICATES / [pt] ESTUDO EXPERIMENTAL DE ALGORITMOS PARA OTIMIZAÇÃO DE CONSULTAS CONJUNTIVAS COM PREDICADOS CAROSRODRIGO SILVA GUARINO 12 July 2004 (has links)
[pt] As técnicas tradicionais de otimização de consultas em
banco de dados possuem como heurística fundamental a
organização dos predicados de uma consulta em dois tipos
principais: predicados simples e predicados
envolvendo junção(join) de tabelas. Como príncipio geral
considera-se a priori os predicados envolvendo junção bem
mais caros do que os predicados simples, e também que não
existam diferenças significativas entre os tempos de
processamento dos predicados simples, o que leva o
otimizador a executar primeiro os predicados simples(em
uma
ordem qualquer), a fim de se diminuir a quantidade de
tuplas que seriam necessárias à execução da junção. Essa
consideração que se aplica bem à maioria das aplicações
convencionais de banco de dados, passou a não se aplicar
mais à novas aplicações que envolviam o preprocessamento
de
dados e/ou funções complexas nos predicados que não
envolviam junções. Dessa forma esses novos predicados
simples passaram a ter um tempo de processamento não mais
desprezível em relação aos predicados que envolviam
junções
e também em relação a outros predicados simples. Dessa
forma a heurística principal de otimização não se
aplicava
mais e tornou-se necessário o desenvolvimento de novas
técnicas para resolver consultas que envolvessem esse
novo
tipo de predicado, que passou a ser chamado de predicado
caro. O presente trabalho tem dois objetivos principais:
apresentar um framework que possibilite o
desenvolvimento,
teste e análise integrada de algoritmos para o
processamento de predicados caros, e analisar o
desempenho
de quatro implementações de algoritmos baseados na
abordagem Cherry Picking, cujo o objetivo é explorar a
dependência entre os dados que compõem as consultas. Os
experimentos são conduzidos em consultas envolvendo
predicados conjuntivos (AND) e a idéia geral é tentar
avaliar os atributos em uma ordem que minimize o custo de
avaliação geral das tuplas. / [en] Traditional database query optimization technique have as
its
main heuristic the organization of predicates in two main
types: selection
predicates and join predicates. Join predicates are
considered much more
expensive than selection predicates. In additional, it's
also considered that there's no big difference among the
costs of different selection predicates,
what makes the optimizer executes them first in any order,
reducing the number of tuples necessary to execute join
predicates.This assumption, that is well applied in
traditional database applications, becomes invalid
in respect of recent database applications, that executes
complex functions over complex data in selection
predicates. In this cases, selection predicates
are considered more expensive than join predicates and
their costs cannot be considered equivalent anymore. This
makes the main heuristic of push down selections invalid
for these kind of new selection predicates which calls for
new optimization techniques. These type of cue named
expensive predicates. This work has two main objectives:
Present a software that makes possible the development,
test and integrat analisys of different algorithms for
evaluating expensive predicates and analyse the performance
of four algorithm's implementations that are based on
Cherry Picking strategy, which aims at exploring the data
dependency between input values to expensive predicates.
The experiments considered conjunctive(AND) queries, and
the general idea is to try evaluate the attributes in a
order that minimizes the general cost of the tuples.
|
40 |
[en] OPTIMAL SENSORS LOCATION FOR FILTERING AND IDENTIFICATION OF DISTRIBUTED SYSTEMS / [pt] LOCALIZAÇÃO ÓTIMA DE SENSORES PARA FILTRAGEM E IDENTIFICAÇÃO EM SISTEMAS DISTRIBUÍDOSHELIOS MALEBRANCHE OLBRISCH FRERES FILHO 10 April 2006 (has links)
[pt] Este trabalho trata do problema não-linear de estimação
simultânea de parâmetros e estado, em sistemas
distribuídos, e ainda do problema de localização de
sensores associado. A classe de modelos em que estamos
interessados é caracterizada por operadores lineares, não-
limitados, densamente definidos e dissipativos. Nossa
abordagem aplica técnicas de filtragem linear a uma
seqüência de linearizações em torno de trajetórias
convenientemente escolhidas. A localização ótima de
sensores é feita de modo a minimizar uma medida do erro da
estimatição simultânea de parâmetros e estados. A
contribuição original desta tese compreende o
desenvolvimento de : (1) um algoritmo que realiza
simultaneamente a identificação e a filtragem de uma
classe de sistemas distribuídos operando em ambiente
estocástico, e (2) um esquema eficiente de localização
ótima de sensores para o problema acima mencionado. Alguns
exemplos simulados são apresentados com o objetivo de
ilustrar os resultados aqui desenvolvidos / [en] This thesis deals with the nonlinear problem of
simultaneous parameter and state estimation for
distributed systems, including the associated optimal
sensor location. The class of models under consideration
is caracterrized by linear unbounded operators which are
densely defined and dissipative. Our approach applies
linear filtering techniquess to a sequence of
linearizations at suitable trajectories. The optimal
sensors location is carried out by minimizing a meassure
of the state and parameter estimation error. The
contribution of this thesis comprises: (1) an algorithm
for simultaneous identification and filtering for a classs
of distributed systems operting in a stochastic
environment and (2) an efficient optimal sensors location
scheme for the above mentioned problem. Some simulated
exemples are presented to illustrate the proposed approach.
|
Page generated in 0.0554 seconds