Spelling suggestions: "subject:"digital aprocessing"" "subject:"digital eprocessing""
11 |
[en] AN IMAGE ANALYSIS SYSTEM FOR THE CHARACTERIZATION OF SINTER FEED MICROCLUSTERS / [pt] UM SISTEMA DE ANÁLISE DE IMAGENS PARA CARACTERIZAÇÃO AUTOMÁTICA DE MICROAGLOMERADOS DE SINTER FEEDRICHARD BRYAN MAGALHAES SANTOS 09 January 2019 (has links)
[pt] Os minérios, uma vez extraídos, passam por diversas etapas de beneficiamento antes que possam ser devidamente utilizados. Os finos de minérios que, ao final dessa etapa, não possuem a granulometria necessária para alimentar os fornos de redução, passam por processos de aglomeração para alcançá-la, como a pelotização e a sinterização, cujo material produzido em uma das etapas deste último processo é o foco do presente trabalho. Esses finos passam primeiramente por uma etapa de microaglomeração, que é fundamental para o processo, pois muitas das características e propriedades do sínter são função da estrutura do microaglomerado pré-tratamento térmico. Ela consiste numa mistura do sinter feed com água, fundentes e combustível sólido (coque). Existem 3 estruturas típicas para um microaglomerado: quasipartícula, micropelota e partícula não aglomerada. A presente dissertação desenvolveu uma rotina automática no programa de processamento e análise de imagens FIJI, baseada em processamento e análise de imagens do microaglomerado obtidas por microscópio ótico, que é capaz de identificar as partículas de diferentes granulometrias que compõem a amostra, e classificá-las quanto às 3 classes supramencionadas. Após a classificação, a rotina é capaz de extrair atributos dos objetos identificados (percentual de cada classe, circularidade média, espessura média), e analisar os núcleos das quasipartículas, classificando-os quanto à fase (hematita, magnetita, goethita e outros). Ademais, a rotina apresenta todos os dados já citados na forma de um relatório em pdf, que contém também uma listagem das quasipartículas e micropelotas em ordem crescente de tamanho. Essa rotina elimina a imprecisão e a subjetividade do operador humano, obtém medidas não realizáveis manualmente, permitindo prever características futuras do sínter de forma totalmente automática. / [en] The ores, once extracted, undergo several stages of processing before they can be properly used. The fines of ores that, at the end of this stage, do not have the granulometry required to feed the reduction furnaces, pass through agglomeration processes to reach it, such as pelletizing and sintering. The material produced in one of the stages of the latter process is the focus of this work. These fines first go through a micro-agglomeration stage, which is fundamental to the process because many of the characteristics and properties of the sinter are function of the structure of the pre-heat treatment microcluster. It consists of a mixture of the sinter feed, water, fluxes and solid fuel (coke). There are 3 typical structures for a microcluster: quasiparticle, micropellet, and non-agglomerated particles. The present dissertation has developed an automatic routine in the FIJI image-processing program, based on optical microscope image processing and analysis, which is able to identify the particles of different granulometry that compose the sample, and classify them in the 3 classes mentioned above. After classification, the routine is able to extract attributes of the identified objects (percentage of each class, average circularity, average thickness), and to analyze the quasiparticle nuclei, classifying them as to the phase (hematite, magnetite, goethite and others). In addition, the routine presents all the data in the form of a pdf report, which also contains a listing of quasiparticles and micropellets in increasing order of size. This automatic classification eliminates the lack of reproducibility and subjectivity of the human operator, provides measures that would be untenable manually, allowing the forecast of the future characteristics of the sinter in a fully automatic fashion.
|
12 |
Estudo e desenvolvimento de blocos para processamento hardwired em aparelhos de auxílio auditivo com DSP / Study and development of blocks for hardwired processing in hearing aid devices with DSPDionísio de Carvalho 22 November 2013 (has links)
A vida de milhões de pessoas é afetada por problemas de deficiência auditiva, incapacitando-as de ouvirem os sons naturalmente. O uso de aparelhos de auxílio auditivo minimiza o efeito das deficiências, pois possibilita tratamento dos sinais auditivos através de sofisticados algoritmos que eliminam ruídos e amplificam os sinais de interesse. Este trabalho propõem a especificação de um sistema integrado, otimizado em termos de consumo de potência, para realizar o processamento de sinais digitais em aparelhos de auxílio auditivo digital. Foram desenvolvidos dois blocos para processamento hardwired, que substituem o processamento realizado por software, cuja finalidade é filtrar os sinais sonoros digitalizados com menor consumo. Um dos blocos, um filtro FIR de até 128 coeficientes, pode ser utilizado como filtro do tipo passa baixa ou passa altas frequências. O outro bloco, para executar o algoritmo ALE, é utilizado para eliminar ruídos periódicos. Os blocos desenvolvidos e implementados foram compilados e simulados para comprovar a funcionalidade. Os resultados das simulações mostraram que eles atendem as especificações de funcionalidade. Os blocos foram também sintetizados em uma tecnologia CMOS de 0,35 μm, três níveis de metal, para assim se ter as estimativas de área do circuito e de consumo de potência. A área do layout final foi de 14 mm². O consumo de potência estimado é de 0,30 mW para frequência de clock de 300 kHz (o que permite que um filtro FIR processe uma amostra a cada 240 μs, no pior caso, e o ALE, uma a cada 36 μs), e de 5,06 mW para frequência de clock de 5,0 MHz (filtro FIR processa uma amostra a cada 14,4 μs e o ALE, uma a cada 2,2 μs). As estimativas de consumo foram feitas considerando os dois blocos operando simultaneamente e com tensão de alimentação de 1,8 V. Para todo o sistema integrado proposto, obtive-se, com um cenário específico, o consumo de potência de 1,1 mW, considerando dois Filtros Configuráveis, um Filtro ALE e um DSP. / The live of millions of people are affected by hearing problems, disabling them from hearing the sounds naturally. The use of hearing aids devices minimizes the effect of deficiencies, since it allows processing of auditory signals through sophisticated algorithms that eliminate noise and amplify the signals of interest. This work proposes the specification of an integrated system, optimized in terms of power consumption, to perform digital signal processing in digital hearing aid devices. Were developed two blocks of hardwired processing, replacing software processing, whose purposes are to filter the digitized audio signals with lower consumption. One of the blocks, an FIR filter up to 128 coefficients can be used as a low pass or high pass filter. The other block, to run the ALE algorithm, is used to eliminate periodic noises. The blocks developed and implemented were compiled and simulated to demonstrate their functionality. The simulation results show that they meet the specifications of functionality. The blocks were also synthesized in a 0.35 μm CMOS technolog, three metal levels, in order to have estimatives of circuit area and power consumption. The area of the final layout was 14,0 mm². The estimated power consumption is 0.30 mW for clock frequency of 300 kHz (which allows a FIR filter to process one sample every 240 μs in the worst case, and ALE, one every 36 μs), and 5.06 mW for clock frequency of 5.0 MHz (FIR filter processing one sample every 14.4 μs, and ALE, one every 2.2 μs). Consumption estimates were made considering the two blocks operating simultaneously and supply voltage of 1.8 V. For all the proposed integrated system, it was found, for a specific scenario, the power consumption of 1.1 mW, considering two configurable filters, one filter ALE and one DSP.
|
13 |
[en] TEMISC: A HYBRID TECHNIQUE FOR LAYER REPLACEMENT / [pt] TEMISC: UMA TÉCNICA MISTA PARA SUBSTITUIÇÃO DE CAMADASWENCESLAU PERES GOUVEIA JUNIOR 23 January 2007 (has links)
[pt] O efeito causado por interfaces de topografias irregulares
próximas à superfície nas reflexões de interesse
provenientes de camadas mais profundas é um problema bem
conhecido no processamento digital de dados sísmicos.
Devido ao forte contraste de velocidades imposto por tais
interfaces, estas reflexões perdem sua característica
hiperbólica. Em conseqüência, o empilhamento CMP que
possui como premissa básica reflexões aproximadamente
hiperbólicas no sinal registrado, falha em seus objetivos
de aumentar a razão sinal ruído da seção sísmica. Visando
solucionar este problema, técnicas de pré-processamento se
fazem necessárias de modo a recuperar completa ou
parcialmente, o padrão hiperbólico destas reflexões.
Neste contexto, este trabalho é dividido em duas partes.
Na primeira, três algoritmos conhecidos para este fim, de
diferentes níveis de precisão e de demanda computacional,
são discutidos. A seguir um novo método, onde técnicas de
traçamento de raios são integradas à mecanismos precisos
de extrapolação do campo de ondas, é proposto. O seu
desempenho é verificado no processamento de grupos de tiro
comum e ponto médio comum sintéticos.
Finalmente, estes resultados são comparados com outros
obtidos de um dos algoritmos apresentados anteriormente,
de forma a evidenciar as vantagens e limitações da técnica
proposta. / [en] The effect of near surface interfaces with irregular
topography on the target reflections from deeper layers is
a well known problem in digital seismic data processing.
Due to strong contrast of velocities imposed by such
interfaces, theses reflections lose their hyperbolic
characteristic. As a consequence, the CMP stack procedure,
which main assumption is the hyperbolic shaped
reflections, fails in its attempt to improve the signal to
noise ratio of the seismic section. To overcome this
difficulty, a preprocessing technique which recovers fully
or partially the hyperbolic pattern of these reflections
is necessary. In this context, this work is divided in two
parts. First, three known different algorithms used for
the solution of this problem, with distinct levels of
precision and computational cost, are discussed. Following
that, a new algorithm which integrates accurate wave field
extrapolation mechanisms with ray tracing techniques, is
proposed. The performance of the new method is
demonstrated on synthetic common mid point gathers and
common shot gathers. Finally, these results are then
compared with those obtained from one of the algorithms
previously described, in order to assess the limitations
and advantages of the proposed technique.
|
14 |
[en] SIMULATOR FOR ELECTRIC POWER NETWOKS TRANSIENT ANALYSIS / [pt] SIMULAÇÃO PARA ANÁLISE TRANSITÓRIA DE REDES ELÉTRICAS DE POTÊNCIASILVANA TEREZINHA FACEROLI 11 July 2002 (has links)
[pt] Muitas das atuais técnicas de simulação de redes elétricas
de potência são baseadas em plataformas computacionais do
tipo EMTP. Basicamente, este método de simulação transforma
os componentes elétricos a parâmetros concentrados e a
topologia da rede em um procedimento matemático recursivo.
Para cada nova iteração, a solução da rede é estimada como
uma função de estados prévios e valores de entrada atuais.
Passos de integração pequenos geram soluções precisas por
estender a banda de freqüências representada. No entanto,
isto também aumenta a carga computacional limitando o
tamanho da rede, a faixa de freqüência ou afetando o tempo
de resposta do processo. Esta situação conflitante tem sido
atacada por vários pesquisadores, muitos procurando formas
alternativas de aumentar o passo de integração.
Este trabalho introduz um novo método para simulação de
redes elétricas lineares. Mesmo baseando nas técnicas
utilizadas no EMTP, o método leva a um conjunto diferente
de equações convenientes para conjugar com técnicas de
filtragem digital multitaxa. O resultado final é a
decomposição de sinais e da rede em sub-bandas de
freqüências. Cada uma das simulações em sub-bandas da rede
elétrica é feita com um passo de integração máximo, sempre
representando carga computacional mínima. Além disso, o
procedimento permite uma estimativa on-line se uma saída de
sub-banda tem contribuição irrelevante ao resultado final
da simulação, suspendendo o correspondente módulo de
operação e, consequentemente, reduzindo a carga
computacional. Como resultado, tem-se um simulador capaz de
adaptar a complexidade do modelo de acordo com os dados da
simulação.Modelos de linhas de transmissão a parâmetros
distribuídos são introduzidos, conectados ao modelo da rede
a parâmetros concentrados. Um método de computação
específica é desenvolvido para uma operação global do
sistema.Casos ilustrativos são incluídos mostrando a
eficiência do simulador proposto em comparação com técnicas
tradicionais. / [en] Most of present day electric power network simulation
techniques are based on computational platforms of the EMTP
type. Basically, following this approach, the simulation
method transforms the electric lumped components and the
network topology into a recursive mathematical procedure.
For each new integration step the network solution is
evaluated as a function of previous state and present input
values. Small integration steps increase solution accuracy,
by extending the frequency band. However, this also
increases computational requirements, limiting network
size, frequency bandwidth or affecting the procedure
response time. This conflicting situation hes been attacked
by many researchers, mostly looking for different forms of
increasing the integration step.This work introduces a new
approach to linear electric network simulation. Although
closely following the EMTP basic techniques, the method
leads to a different set of equations, more convenient to
conjugate with multirate digital filtering techniques. The
final result is the decomposition of signal and network
models into subbands of frequencies. Each of the network
subband simulations is performed with maximum integration
time step, always representing minimum computational
burden. Moreover, the procedure allows to on-line estimate
if a particular subband model output has negligible
contribution to the final simulation result. While this
situation remains, the corresponding module operation is
suspended, reducing the computational load. As a result,
the simulator is able to adapt its model complexity, on
line, according to the simulation requirements.
Distributed transmission line models are introduced,
connected to the lumped network parameter models. A
specific computational procedure is shown to operate the
overall system.Illustrative cases are included, supporting
the simulator proposed efficiency when compared to
conventional procedures.
|
15 |
Parallelizing Digital Signal Processing for GPUEkstam Ljusegren, Hannes, Jonsson, Hannes January 2020 (has links)
Because of the increasing importance of signal processing in today's society, there is a need to easily experiment with new ways to process signals. Usually, fast-performing digital signal processing is done with special-purpose hardware that are difficult to develop for. GPUs pose an alternative for fast performing digital signal processing. The work in this thesis is an analysis and implementation of a GPU version of a digital signal processing chain provided by SAAB. Through an iterative process of development and testing, a final implementation was achieved. Two benchmarks, both comprised of 4.2 M test samples, were made to compare the CPU implementation with the GPU implementation. The benchmark was run on three different platforms: a desktop computer, a NVIDIA Jetson AGX Xavier and a NVIDIA Jetson TX2. The results show that the parallelized version can reach several magnitudes higher throughput than the CPU implementation.
|
16 |
The spatial relationship of DCT coefficients between a block and its sub-blocks.Jiang, Jianmin, Feng, G.C. January 2002 (has links)
No / At present, almost all digital images are stored and transferred in their compressed format in which discrete cosine transform (DCT)-based compression remains one of the most important data compression techniques due to the efforts from JPEG. In order to save the computation and memory cost, it is desirable to have image processing operations such as feature extraction, image indexing, and pattern classifications implemented directly in the DCT domain. To this end, we present in this paper a generalized analysis of spatial relationships between the DCTs of any block and its sub-blocks. The results reveal that DCT coefficients of any block can be directly obtained from the DCT coefficients of its sub-blocks and that the interblock relationship remains linear. It is useful in extracting global features in compressed domain for general image processing tasks such as those widely used in pyramid algorithms and image indexing. In addition, due to the fact that the corresponding coefficient matrix of the linear combination is sparse, the computational complexity of the proposed algorithms is significantly lower than that of the existing methods.
|
17 |
[en] KNOWLEDGE BASED INTERPRETATION APPLIED TO MULTITEMPORAL LOW RESOLUTION SATELLITE IMAGES / [pt] INTERPRETAÇÃO BASEADA EM CONHECIMENTO APLICADA A IMAGENS MULTITEMPORAIS DE SATÉLITE DE BAIXA RESOLUÇÃOGUILHERME LUCIO ABELHA MOTA 17 September 2004 (has links)
[pt] A presente tese investiga a representação explícita de
conhecimento
específico na interpretação de imagens de baixa resolução
multitemporais
adquiridas por satélite. Neste contexto, o termo
conhecimento específico, se refere
a todo e qualquer tipo de conhecimento que torna um
indivíduo capaz de ou mais
apto para realizar uma determinada tarefa. Dentro do escopo
desta tese,
conhecimento específico compreende o conjunto das
informações necessárias para
a interpretação de imagens de satélite de baixa resolução,
como por exemplo: as
características das classes presentes, o manejo agronômico
e a ecologia da região
de interesse. Assim sendo, a presente tese propõe um modelo
para a interpretação
baseada em conhecimento de imagens de satélite de baixa
resolução visando
reproduzir o raciocínio empregado pelo foto-intéprete ao
realizar a interpretação
visual. Neste modelo são empregadas diferentes formas de
conhecimento
específico: 1) Conhecimento espectral que associa as
diversas assinaturas
espectrais observadas na imagem de entrada às classes da
legenda, agrupando em
uma única classe espectral as classes da legenda cujas
assinaturas espectrais sejam
de difícil discriminação. 2) Conhecimento contextual que
indica os diversos
contextos relevantes para a discriminação de classes da
legenda com assinaturas
espectrais semelhantes. 3) Conhecimento multitemporal que
relaciona,
considerando a classificação anterior, as classificações
possíveis no presente
momento e a possibilidade de ocorrência de cada uma delas.
A potencialidade
desta abordagem foi avaliada através de uma série de
experimentos, onde, como
base de dados, são utilizadas imagens de duas regiões
inseridas na Alta Bacia do
Rio Taquari ao leste do pantanal mato-grossense. O objetivo
primordial destes
experimentos foi explicitar a contribuição de cada forma de
conhecimento. Os resultados obtidos foram animadores e
indicam que o uso de abordagens baseadas
em conhecimento pode automatizar grande parte do processo
de fotointerpretação,
aumentando a produtividade dos foto-intérpretes. No futuro,
os
resultados da presente pesquisa contribuirão para a
construção de sistemas
capazes de realizar uma estratégia de interpretação
qualquer a ser definida pelo
próprio foto-intérprete, acelerando o monitoramento do uso
do solo com base em
imagens de baixa resolução adquiridas por satélite. / [en] The present thesis investigates the explicit representation
of specific
knowledge for the automatic interpretation of multitemporal
low resolution
satellite images. In this context, the term specific
knowledge refers to all and any
type of knowledge that makes an individual capable or more
competent to carry
out one determined task. In the scope of this thesis,
specific knowledge
comprehends the necessary information for the
interpretation of low resolution
satellite images, for instance: the characteristics of the
classes in the legend, the
agronomic management, and the ecology of the region under
interest. Thus, the
present thesis proposes a framework for the knowledge based
interpretation of
low-resolution satellite images which concerns at
reproducing the reasoning used
by the photo-interpreter while performing the visual
interpretation. This model
employs three different kinds of specific knowledge: 1)
Spectral knowledge, that
associates the diverse observed spectral signatures in the
input image to the
correspondent classes in the legend, grouping under a
single spectral class the
classes of the legend whose spectral signatures are
difficult to be discriminated.
2) Contextual knowledge, which indicates the diverse
contexts for the
discrimination of the classes in the legend with similar
spectral signatures.
3) Multitemporal knowledge, which relates, considering the
previous
classification, the possible classifications at the present
moment and their
respective possibility of occurrence. The potentiality of
this methodology was
evaluated through a series of experiments. The dataset
consisted of images of two
regions inserted in the Upper Watershed of the Taquari
River, situated at the east
of the Brazilian Pantanal, a lowlands ecological sanctuary
located in the States of
Mato Grosso and Mato Grosso do Sul. The main objective of
the experiments was
to evaluate the contribution of each sort of knowledge. The
results indicate that the use of knowledge based methods
can automate great part of the interpretation
process, increasing the productivity of the
photointerpreters. In the future, the
results of the present research can guide the development
of systems capable to
automatically perform any interpretation strategy, defined
by the proper
photointerpreter, speeding up the monitoring of land use
based on low resolution
satellite images.
|
18 |
[en] SIMULATION TECHNIQUE OF ELECTRICAL NETWORK AND TRANSMISSION LINE / [pt] TÉCNICAS DE SIMULAÇÃO DE REDES ELÉTRICAS E LINHAS DE TRANSMISSÃOCARLOS AUGUSTO DUQUE 26 April 2006 (has links)
[pt]
Este trabalho discute técnicas para simulação de redes
elétricas com ênfase em operação em tempo real. As redes
possuem linhas de transmissão como elementos a parâmetros
distribuídos, enquanto redes RLC correspondem aos
elementos concentrados, se bem que muitos dos resultados
não se restringem só a estes tipos de elementos. A
modelagem de linhas de transmissão é considerada primeiro,
sob o ponto de vista da comparação entre dois modelos da
literatura, caracterizando sua adequação para simulação em
tempo real. Desta comparação resulta uma combinação de
procedimentos como adequada à simulação. Na seqüência, é
apresentado um novo algoritmo de integração numérica,
baseado na descrição de estado de rede e em filtragem
digital multitaxa. O novo algoritmo mostrou que pode
reduzir o esforço computacional da simulação da rede, ao
mesmo tempo que melhorou a qualidade das mesmas. O próximo
objetivo relaciona-se com as oscilações numéricas,
causadas pelo uso da Integração Trapezoidal em algumas
configurações de rede. Um método de análise, baseado em
teoria de rede e processamento digital de sinais é
desenvolvido. A Partir dele são identificadas as
configurações de redes, passíveis de gerações numéricas na
sua contraparte digital. Métodos convencionais de
eliminação das oscilações numéricas são analisados,
incluindo no método o sistema multitaxa. Em todos os casos
o sistema novo apresentou melhores resultados, sendo que
seu uso apropriado, pode, por se, eliminar as oscilações
numéricas. Alguns casos ilustrativos de redes de sistemas
de potência estão incluídos, sendo desenvolvidos em
linguagem MATLAB. Eles indicam que a combinação do modelo
sugerido para linha de transmissão com o novo método de
integração numérica multitaxa, permite a simulação da rede
com reduzido esforço computacional e portanto aumentar a
possibilidade de simulação de redes complexas em tempo
real. / [en] This work discusses techniques for electrical network
digital simulation, emphasizing real time operation. The
networks contain transmission lines as distributed
elements and RLC elements as lumped parameters, although
many of the results are not restricted to these elements.
Transmission line modeling is considered first, comparing
two of the methods found in literature from the real time
simulation point of view. The convenience of their use is
subject of analysis, leading, later on, to suggest a blend
of approaches for real time simulation.
In the sequence of the work, it is introduced a new
numerical integration algorithm, based on network state
space description and multirate digital filtering. The new
integration method reduces the simulation computational
complexity while simultaneously improving its accuracy.
Next, the focus is on numerical oscillations caused by the
Trapezoidal Integration approach in some network
configurations. It is presented a method to identify
electrical network configurations that might generate
numerical oscillations in their digital counterparts. The
method is a result of both, network and digital signal
theory. Conventional and new techniques are applied in
order to eliminate the numerical oscillations. The new
multirate approach improves convetional techniques
results, while properly used eliminates by itself the
numerical oscillations.
Some power systems network illustrative cases are
included, using the new integration method and the
proposed digital transmission line model. It is shown that
this combination produces improved performance, final
accuracy and reduced computational effort, resulting
appropriate for real time simulations.
|
19 |
[en] A KNOWLEDGE-BASED APPROACH FOR AUTOMATIC INTERPRETATION OF MULTIDATE REMOTE SENSING DATA / [pt] UMA ABORDAGEM BASEADA EM CONHECIMENTO PARA A INTERPRETAÇÃO AUTOMÁTICA DE DADOS DE SENSORIAMENTO REMOTO MULTI-DATAGILSON ALEXANDRE OSTWALD PEDRO DA COSTA 15 September 2009 (has links)
[pt] O objetivo genérico desta Tese foi o desenvolvimento de técnicas
computacionais baseadas em conhecimento para apoiar a interpretação automática
de dados de sensoriamento remoto multi-temporais, com ênfase na investigação
da aquisição e representação explícita de conhecimento temporal, bem como na
sua integração com outros tipos de conhecimento dentro do processo de
interpretação. Dois objetivos específicos, inter-relacionados, foram perseguidos:
(i) o desenvolvimento de um novo método de classificação baseado no conceito
de cadeias nebulosas de Markov (CNM), que provê meios para a estimação de
seus parâmetros temporais e para a utilização de conhecimento temporal no
processo de classificação; e (ii) a modelagem e implementação de um ambiente
baseado em conhecimento, de código livre, para a interpretação de dados de
sensoriamento remoto. Para validar o novo método de classificação multitemporal,
foram realizados experimentos voltados à interpretação de uma
seqüência de três imagens LANDSAT de uma área na Região Centro-Oeste do
Brasil, utilizando um método estocástico e outro analítico para a estimação das
matrizes de transição de classes que compõem o modelo CNM. Enquanto os
classificadores mono-temporais obtiveram uma acurácia média por classe de 55%,
o esquema multi-temporal alcançou acurácias entre 63% e 94%. Resultados
semelhantes em termos de acurácia global foram verificados. Além disso, quando
comparado a abordagens multi-temporais correlatas, o método proposto obteve
melhores resultados. De forma a validar o ambiente baseado em conhecimento
aqui proposto, o método CNM foi implementado através de suas funcionalidades.
Um conjunto de experimentos nos quais diferentes variações do método CNM,
estruturadas no novo ambiente, foi executado satisfatoriamente. / [en] The general objective of this research was the development of knowledgebased
computational techniques to support the interpretation of multitemporal
remote sensing data, focusing on the investigation of the explicit representation of
temporal knowledge and its integration to other types of knowledge; and also on
the processing and acquisition of temporal knowledge. Two interrelated, specific
objectives were pursued: (i) the development of a novel multitemporal
classification method based on the concept of fuzzy Markov chain (FMC) that
provides for the automatic estimation of its temporal related parameters and for
the exploration of temporal knowledge in the classification process; and (ii) the
design and implementation of an open-source, knowledge-based framework for
multitemporal interpretation of remote sensing data. In order to validate the new
multitemporal classification method, experiments were carried out aiming at the
interpretation of a sequence of three LANDSAT images from the central region of
Brazil, using both a stochastic and an analytical technique to estimate the class
transition possibilities that compose the FMC model. While the monotemporal
classifiers used in the experiments attained an average class accuracy of
approximately 55%, the multitemporal scheme reached accuracies between 65%
and 94%. Similar results in terms of overall accuracy were also observed.
Furthermore, when compared to two alternative multitemporal classification
approaches, the devised method consistently showed better results. In order to
validate the proposed multitemporal framework, the FCM-based method was
implemented using its temporal functionalities, and a number of experiments in
which different variants of the FCM-based method were structured through the
framework were successfully carried out.
|
20 |
[pt] ESPACIALIZAÇÃO SONORA EM 3D BASEADA EM HRTFS / [en] HRTFS BASED 3D AUDIO SPATIALIZATIONMARCELO POLITZER COUTO 05 February 2021 (has links)
[pt] Aplicações de Realidade Virtual (VR) com rastreamento de movimentos da cabeça precisam de efeitos de espacialização de alta qualidade. A abordagem tradicional para RV/jogos (interpolação dos canais L+R para
construção do estereo) se mostrou insuficiente por ser incapaz de simular a acústica do mundo real. Por isso a pesquisa na área tem migrado para espacialização 3D do áudio. O receptor tem a sensação de que o som veio de um local no espaço 3D. Em outras palavras, ele pode localizar o emissor apenas pelo áudio por consequência permite a construção ambientes mais imersivos e coerentes quando usados em conjunto de técnicas visuáis. Nesse novo contexto, motores de jogos devem prover aos designers de áudio uma
gama de ferramentas especializadas para a espacialização de àudio 3D além as de uso geral, que encluem: reverberações e reflexões usadas na construção de ambientes como igrejas e cavernas (locais com ecos); modulação, para criar variações de frequência e aliviar na repetitividade de sons recorrentes
(como os de passos e tiros); mix e fade de volumes, utilizado na criação de momentos dramáticos na história e reprodução musical. Nesse trabalho, nós propomos um motor de áudio de tempo real para espacialização de fontes sonoras pontuais em ambientes virtuais. Vai possuir uma arquitetura
documentada e de código aberto que provê um conjunto de efeitos e a habilidade de os compor. Nós implementamos a espacialização de áudio em 3D sobre bancos de dados de respostas impulsionais da cabeça (HRIRs) e efeitos sonoros com técnicas de processamento digital de sinais (DSP).
Apesar da existência de sistemas comerciais poderosos de áudio para VR estejam disponíveis (e.g. Oculus), nosso protótipo pode ser uma alternativa se a simplicidade, testabilidade e ajustes forem levados em conta. / [en] Virtual Reality (VR) applications with low-latency head tracking require high-quality spatial audio effects. However, classic VR/game sound approaches cannot properly simulate the acoustic of the real world. Current audio research is moving towards 3D spatial audio to have a more realistic simulation. In 3D spatial audio, the listener has the sensation that sound comes from a particular direction in 3D space. In other words, the listener can localize a source based on audio and have a more coherent and immersive
experience when paired with visual simulation. In this new context, game engines should provide sound designers with a set of 3D spatial audio tools. The following common effects are desirable in this type of toolbox: reverberations and reflections, which can be employed in the creation of caverns or churches (places with lots of echoes); modulation, which can increase the perceived variety of a recorded sound, by slightly varying its pitch (as in the sounds of footsteps); mixing and fading volumes, which can
create dramatic moments in storytelling and music reproduction. In this work, we propose a realtime
audio engine to spatialize sound point sources in virtual environments. This engine is an open-source architecture that provides a basic set of audio effects and an efficient way to mix and match them. We implement 3D audio spatialization by leveraging recorded head-related impulse responses (HRIRs) and we produce special sound effects with digital signal processing (DSP) techniques. Although some powerful commercial audio SDKs for Virtual Reality are currently available (e.g. Oculus), our audio engine
prototype may be a flexible option when adaptation, simplification, testing, and parameter tuning are necessary.
|
Page generated in 0.1075 seconds