Spelling suggestions: "subject:"cistemas dde conhecimento dde padrões"" "subject:"cistemas dde conhecimento dee padrões""
1 |
Identificação de Indivíduos pela Dinâmica do CaminharVIEIRA, R. M. T. 19 December 2009 (has links)
Made available in DSpace on 2016-08-29T15:32:32Z (GMT). No. of bitstreams: 1
tese_2817_DissertacaoMestradoRowenaMariaTeixeiraVieira.pdf: 1225955 bytes, checksum: c745afac924a7df6d3e777767133ac88 (MD5)
Previous issue date: 2009-12-19 / Os sistemas de segurança baseados em identificação de indivíduos através de características biométricas têm exigido que os programas de computador responsáveis por esta função sejam os mais confiáveis possíveis. As características biométricas como face, íris e impressão digital necessitam de recursos sofisticados e da ajuda direta do indivíduo que se deseja reconhecer. Baseado neste contexto, buscou-se uma maneira de minimizar estas exigências através da característica biométrica do caminhar.
O caminhar humano é característico de cada ser humano, e este aspecto pode ser utilizado de forma favorável nos sistemas de reconhecimento. Assim, neste trabalho foi desenvolvido um sistema de reconhecimento de indivíduos pela dinâmica do caminhar, usando a abordagem holística para a composição dos vetores de características. Para tal foi usado um estimador de fundo robusto, o LMedS, para se fazer a extração das silhuetas. Após esta etapa, foram feitas algumas filtragens nas imagens, a fim de melhorar a qualidade das silhuetas capturadas, e a medida de largura destas silhuetas serviu como característica de cada classe de pessoas.
Métodos de redução de dimensão como o PCA, LDA e POV foram testadas para que os vetores característicos ficassem mais representativos e para que o tempo de processamento do sistema fosse reduzido na etapa posterior. Como classificador foi utilizado o HMM, pois se pode relacionar os estados de um ciclo de caminhar aos estados presentes no HMM. Neste caso, como cada pessoa tem uma forma de caminhar específica (por exemplo, uns andam mais rápido, outros andam mais devagar), este classificador se enquadrou muito bem à proposta da pesquisa. Os resultados obtidos mostraram que a técnica da LDA é a mais satisfatória, pois foi a ferramenta de auxílio ao HMM que obteve taxas de acerto mais expressivas. Tendo em vista as tendências atuais de fusão biométrica, a forma de caminhar se mostra muito atrativa para ser utilizada em sistemas bi-modais ou mesmo isoladamente.
|
2 |
Visualização interativa de modelos 3D realistas na webMendes, Caroline Mazetto January 2014 (has links)
Orientador : Prof. Dr. Luciano Silva / Co-orientadora : Profª. Drª. Olga Regina Pereira Bellon / Tese (doutorado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 16/09/2014 / Inclui referências / Resumo: A visualização 3D remota de objetos culturais é uma ferramenta importante para diversas atividades na área de preservação digital, pois pode minimizar danos causados pelo transporte ou manipulação física dos objetos. Os modelos 3D gerados no processo de digitalização 3D podem auxiliar em restaurações ou na reconstrução física dos objetos. Devido aos avanços das tecnologias para digitalização 3D, os modelos 3D estão cada vez mais precisos. A disponibilização desses modelos para a visualização na web pode ser dificultada por restrições de acesso remoto, como por exemplo espaço de armazenamento, memória, capacidade de processamento e velocidade de conexão disponíveis. Nesse contexto, esta tese se concentra na visualização web interativa de modelos 3D realistas com fidelidade visual requerida ao estudo remoto dos objetos. O framework de visualização 3D baseada na web proposto incorpora a compressão progressiva de modelos 3D coloridos orientada por dados, uma base de dados de apoio à reconstrução 3D progressiva e uma aplicação web para a visualização 3D remota. Ao preservar as cores através do mapeamento de textura, a abordagem de compressão 3D progressiva orientada por dados proposta provê modelos intermediários com boa qualidade visual, principalmente a baixas resoluções. A estrutura do framework possibilita à aplicação suportar acessos simultâneos, além de viabilizar o acesso remoto por computadores e dispositivos móveis com restrição de recursos. A aplicação desenvolvida aproveita os recentes avanços das tecnologias web, proporcionando acesso livre de plugins e melhorando a qualidade da experiência do usuário. A solução proposta foi aplicada aos modelos 3D do conjunto de esculturas chamado "Os Doze Profetas" de Aleijadinho, considerado Patrimônio Mundial pela UNESCO. Através dos resultados experimentais pode-se comprovar que a preservação das cores combinada à reconstrução 3D progressiva é uma estratégia efetiva e apropriada para a visualização interativa de modelos 3D realistas na web. Palavras-chave: Preservação digital. Modelos 3D realistas. Visualização na web. Reconstrução 3D progressiva. Qualidade visual. / Abstract: Remote 3D visualization of valuable objects is a very important tool for the accomplishment of digital preservation tasks, since it prevents damages caused both by shipping and physical manipulation. The 3D models generated by 3D scanning may help physical restoration or reconstruction of the objects. Due to advances in 3D scanning technologies, the 3D models are becoming increasingly detailed. The web visualization of these models generated for digital preservation purposes is hampered by storage space, memory and processing restrictions. In this context, this thesis focuses on interactive web visualization of realistic 3D models for the remote study of the objects. The proposed web-based 3D visualization framework incorporates the datadriven progressive compression of colored 3D models, the database to support the progressive 3D reconstruction and a web application for remote 3D visualization. By preserving the colors through texture mapping, the proposed data-driven progressive 3D compression provides intermediate models with good visual quality at low resolutions. The framework enables the web application to support concurrent access, as well as providing access through computers with restricted resources. Our application takes advantages of the recent advances of the web technologies for providing a plugin-free experience. The proposed solution was applied to sculptures of the Twelve Prophets of Aleijadinho, considered World Heritage by UNESCO. The experimental results shows that the color preservation combined with progressive 3D reconstruction is an effective and appropriate strategy for interactive visualization of realistic 3D models on the web. Keywords: Digital preservation. Realistic 3D models. Web-based visualization. Progressive 3D reconstrution. Visual Quality.
|
3 |
A tuning approach based on evolutionary algorithm and data sampling for boosting performance of mapreduce programsKepe, Tiago Rodrigo January 2013 (has links)
Orientador : Prof. Dr. Eduardo C. de Almeida / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 25/08/2014 / Inclui referências / Resumo: O software de processamento de dados Apache Hadoop está introduzido em um ambiente complexo composto de enormes cluster de máquinas, grandes conjuntos de dados e vários programas de processamento. Administrar tal ambiente demanda tempo, é dispendioso e requer usuários experts. Por isso, falta de conhecimento pode ocasionar falhas de configurações degradando a performance do cluster de processamento. Realmente, usuários gastam muito tempo configurando o ambiente em vez de focar na análise dos dados. Para resolver questões de má configuração nós propomos uma solução, cujo objetivo é ajustar parâmetros de desempenho de programas executados sobre o Hadoop em ambientes Big Data. Para alcançar isto, nosso mecanismo de ajuste de desempenho inspira-se em duas ideias-chave: (1) um algoritmo evolucionário para gerar e testar novas configurações de jobs, e (2) amostragem de dados para reduzir o custo do processo de ajuste de desempenho. A partir dessas ideias desenvolvemos um framework para testar configurações usuais de programas e obter uma nova configuração mais ajustada ao estado atual do ambiente. Resultados experimentais mostram ganho na performance de jobs comparado com as configurações padrão e _regras de ouro_ do Hadoop. Além disso, os experimentos comprovam a acurácia da nossa solução no que se refere ao custo para obter uma melhor configuração e a qualidade da configuração alcançada. Palavras chaves: Big Data, MapReduce, Hadoop, Ajuste / Abstract: The Apache Hadoop data processing software is immersed in a complex environment
composed of huge machine clusters, large data sets, and several processing jobs. Managing
a Hadoop environment is time consuming, toilsome and requires expert users. Thus, lack
of knowledge may entail miscongurations degrading the cluster performance. Indeed,
users spend a lot of time tuning the system instead of focusing on data analysis. To
address misconguration issues we propose a solution implemented on top of Hadoop.
The goal is presenting a tuning mechanism for Hadoop jobs on Big Data environments.
To achieve this, our tuning mechanism is inspired by two key ideas: (1) an evolutionary
algorithm to generate and test new job congurations, and (2) data sampling to reduce
the cost of the tuning process. From these ideas we developed a framework for testing
usual job congurations and get a new conguration suitable to the current state of the
environment. Experimental results show gains in job performance against the Hadoop's
default conguration and the rules of thumb. Besides, the experiments prove the accuracy
of our solution which is the relation between the cost to obtain a better conguration and
the quality of the conguration reached.
Keywords: Big Data, MapReduce, Hadoop, Tuning
|
4 |
Intensidades vibracionais : analise pela regra-G em termos de cargas efetivas atomicas e sua previção usando tensores polares e tecnicas de reconhecimento de padrõesBrown, Deborah Louise Illman 14 July 2018 (has links)
Orientador : Roy E. Bruns / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Quimica / Made available in DSpace on 2018-07-14T06:16:34Z (GMT). No. of bitstreams: 1
Brown_DeborahLouiseIllman_D.pdf: 11913831 bytes, checksum: 03bd8e1ad139f75b911383d22c5715d8 (MD5)
Previous issue date: 1981 / Doutorado
|
5 |
Classificação de arritmias cardíacas em eletrocardiograma utilizando floresta de caminhos ótimos / ECG cardiac arrhythmia classification using optimum path forestNunes, Thiago Monteiro 01 August 2014 (has links)
NUNES. T. M. Classificação de arritmias cardíacas em eletrocardiograma utilizando floresta de caminhos ótimos. 2014. 67 f. Dissertação (Mestrado em Engenharia de Teleinformática) - Centro de Tecnologia, Universidade Federal do Ceará, Fortaleza, 2014. / Submitted by Marlene Sousa (mmarlene@ufc.br) on 2015-02-27T18:55:56Z
No. of bitstreams: 1
2014_dis_tmnunes.pdf: 1099645 bytes, checksum: 53b9d96b046d067406e2dc5d70914b4d (MD5) / Approved for entry into archive by Marlene Sousa(mmarlene@ufc.br) on 2015-03-04T16:53:33Z (GMT) No. of bitstreams: 1
2014_dis_tmnunes.pdf: 1099645 bytes, checksum: 53b9d96b046d067406e2dc5d70914b4d (MD5) / Made available in DSpace on 2015-03-04T16:53:33Z (GMT). No. of bitstreams: 1
2014_dis_tmnunes.pdf: 1099645 bytes, checksum: 53b9d96b046d067406e2dc5d70914b4d (MD5)
Previous issue date: 2014-08-01 / Currently in the world, millions of people die, victims of heart diseases, which in large part can be detected by analyzing signals of the electrocardiogram. This analysis involves the study of the signal corresponding to the arrhythmia studied and can be automated through machine learning. This work compares the Optimum Path Forest (OPF) classifier using 6 distance metrics, the Support Vector Machines classifier with radial basis function kernel (RBF-SVM) and the Bayesian classifier, applied to the problem of ECG arrhythmias classification. This is done using 6 feature extraction techniques and a methodology for separating sets, to avoid the interference of patient information in classification. The performance is evaluated in terms of accuracy, generalization, through specificity and sensitivity, and computational cost. Classification was done using 5 and 3 classes of arrhythmias. The OPF showed the best performance in terms of generalization, while the SVM-RBF had the highest accuracy rates. The training times of OPF were the lowest among the classifiers. In the test, the RBF-SVM classifier presented best computational cost. / Anualmente no mundo, milhões de pessoas morrem vítimas de cardiopatias que em grande parte, podem ser detectadas através de sinais em eletrocardiograma. Essa análise envolve o estudo do sinal, correspondendo às arritmias estudadas, processo que pode ser automatizado através do aprendizado de máquinas. Esse trabalho compara os classificadores Floresta de Caminhos Ótimos(OPF), utilizando 6 métricas de distâncias, Máquinas de Vetores de Suporte com núcleo de função de base radial (SVM-RBF) e Classificador Bayesiano aplicados problema da classificação de arritmias em eletrocardiogramas, usando 6 técnicas de extração de atributos e uma metodologia de separação de conjuntos para evitar a interferência das informações de pacientes na classificação. A base de dados utilizada foi a MIT-BIH Arrhythmia Database e foram avaliados desempenho em termos de taxa de acerto, generalização, através de sensibilidade e especificidade, e custo computacional. Foram consideradas classificações em 5 e 3 classes de arritmias. O OPF mostrou o melhor desempenho em termos de generalização, enquanto o SVM-RBF obteve as maiores taxas de acerto. Os tempos de treino do OPF foram os menores entre os classificadores. No teste, o SVM-RBF foi o classificador que apresentou o menor custo computacional.
|
6 |
Reconhecimento de padrões através de análises estatísticas e fractais aplicadas a dados de ensaios não-destrutivosSilva, Francisco Estênio da 12 1900 (has links)
SILVA, F. E. da. Reconhecimento de padrões através de análises estatísticas e fractais aplicadas a dados de ensaios não-destrutivos. 2011. 120 f. Tese (Doutorado em Engenharia e Ciência de Materiais) - Centro de Tecnologia, Universidade Federal do Ceará, Fortaleza, 2011. / Submitted by Marlene Sousa (mmarlene@ufc.br) on 2012-05-07T18:19:04Z
No. of bitstreams: 1
2011_tese_fesilva.pdf: 6679504 bytes, checksum: 6d70aae5b438e3ce7eadd57eed3134b7 (MD5) / Approved for entry into archive by Marlene Sousa(mmarlene@ufc.br) on 2012-05-07T18:21:07Z (GMT) No. of bitstreams: 1
2011_tese_fesilva.pdf: 6679504 bytes, checksum: 6d70aae5b438e3ce7eadd57eed3134b7 (MD5) / Made available in DSpace on 2012-05-07T18:21:07Z (GMT). No. of bitstreams: 1
2011_tese_fesilva.pdf: 6679504 bytes, checksum: 6d70aae5b438e3ce7eadd57eed3134b7 (MD5)
Previous issue date: 2011-12 / In this work a procedure is studied for pattern classification related to different types of data,
namely: (1) signals obtained from ultrasonic testing ( pulse-echo technique) and magnetic
signals obtained from Barkhäusen noise in samples of ferritic-pearlitic carbon steel tubes
which, due to temperature effects, have shown microstructural changes as consequence of the
total or partial transformation of the pearlite into spherodite; (2) images built from TOFD
ultrasonic testing and 8 bit digital radiographic images obtained from carbon steel 1020
sheets, with different welding defects. From the data obtained, images have been considered
with the defects as lack of fusion, lack of penetration, porosity and images without defect. For
this aim, non-conventional mathematical techniques have been used for the preprocessing of
the data, namely, the statistical analyses, Hurst analysis (RSA) and detrended fluctuation
analysis (DFA), and fractal analyses, box counting analysis (BCA) and minimal cover
analysis (MCA). The curves obtained with the initial mathematical treatment, discrete
functions of the temporal window width, have been handled with the supervised and nonsupervised
pattern recognition techniques known as principal component analysis and
Karhunen-Loève (KL) transformation analysis respectively. With respect to the magnetic
signals, the KL classifier has been shown to be very efficient when applied to DFA obtained
from the magnetic flux, with a success rate around 94%. On the other hand, for the magnetic
noise signals we have not obtained an acceptable success rate independently of the preprocessing
used. However, when were considered the curves obtained by concatenating all
curves of the pre-processing was obtained a consistent average success rate of 85%. As far as
the rate of success of the PCA classifier is concerned, an excellent success of 96% has been
reached for concatenated curves of selected data of magnetic noise only. As far as the
analyses of the backscattered ultrasonic signals is concerned, it was not possible to classify
the different stages of the microstructural degradation by using KL or PCA independently of
the pre-processing used. As far as the analyses of the D-scan images are concerned, by
applying PCA a rate of success of 81% has been obtained with MCA data, 73% has been
obtained by concatenating all curves from the different fractal and statistical analyses and
around 85% when concatenating the best individual results (DFA and MCA). On the other
hand, considering the KL classifier, high success rates have been verified for the training stage, between 96% and 99%, and a maximum success rate (100%), when concatenating all
analyses. With respect to the testing results, the best success rate which has been reached was
approximately 77%, when concatenating all the curves obtained from the statistical and fractal
pre-processing. For the digitalized radiographic images, relevant individual rates of success
(between 70% and 90%) for the training set (consisting of all data) have been obtained for
the classifier KL only, and a 100% success rate, when concatenating all the curves obtained
from the pre-processing of the images. / Neste trabalho estudou-se uma metodologia de classificação de padrões relacionados a dois
tipos de dados: (1) sinais obtidos através dos ensaios ultrassônicos (técnica pulso-eco) e sinais
magnéticos obtidos através de ruído Barkhausen realizados em amostras de tubos de aço
carbono ferrítico-perlítico que devido aos efeitos da temperatura de trabalho apresentaram
mudanças microestruturais decorrentes da transformação parcial ou total da perlita em
esferoiditas; e (2) imagens construídas a partir de ensaios ultrassônicos (técnica TOFD) e
imagens radiográficas digitais de chapas de aço carbono 1020 soldadas, obtidas com
resolução de 8bits, nas quais foram inseridos diversos tipos de defeitos de soldagem. Dos
dados gerados, foram estudadas as imagens com os defeitos de falta de fusão (FF), falta de
penetração (FP), porosidade (PO) e uma classe designada como sem defeito (SD). Para tanto,
utilizaram-se de técnicas matemáticas não convencionais no pré-processamentos dos dados
conhecidas como análises estatísticas de Hurst (RSA) e flutuação sem tendência (DFA) e as
análises fractais de contagem de caixas (BCA) e de mínima cobertura (MCA). Em seguida as
curvas obtidas desse tratamento matemático inicial, funções discretas da largura da janela
temporal, foram utilizadas na alimentação das técnicas de reconhecimento de padrões não
supervisionada e supervisionada conhecidas, respectivamente, como análise de componentes
principais (PCA) e análise da transformação de Karhunen-Loève (KL). Em relação aos
estudos dos sinais magnéticos, o classificador KL mostrou-se eficiente quando aplicado às
DFA do fluxo magnético, com uma taxa de sucesso em torno de 94%. Já para os sinais do
ruído magnético não se obteve uma taxa de sucesso aceitável, independente do préprocessamento
utilizado. Entretanto quando todas as curvas de todas as análises, dos dois
tipos de sinais magnéticos (ruído e fluxo), foram concatenadas, obteve-se uma taxa média de
sucesso consistente de aproximadamente 85%. No tocante às taxas de sucesso do classificador
PCA, somente para o ruído magnético e considerando todas as curvas concatenadas para um
grupo de dados selecionados, conseguiu-se uma taxa de sucesso de 96%. A respeito das
análises dos sinais ultrassônicos retroespalhados, também não foi possível classificar, nem
com a KL e nem com a PCA, os diferentes estágios de degradação microestrutural,
independemente do pré-processamento utilizado. No tocante às analises das imagens D-scan,
obteve-se com a PCA, taxas de sucesso de 81% considerando apenas os dados das MCA, 73% quando as curvas de todas as análises estatísticas e fractais foram concatenadas, e em torno de
85%, quando apenas as curvas das melhores análises (DFA e MCA) foram concatenadas. Já
considerando o classificador KL, verificaram-se taxas de sucesso na etapa de treinamento,
entre 96% e 99%, e máxima taxa de sucesso (100%) no caso dos vetores de todas as análises
concatenados. Em relação aos resultados dos testes, a melhor taxa de sucesso alcançada foi
aproximadamente de 77% quando se concatenaram todas as curvas oriundas dos préprocessamentos
estatísticos e fractais. Com respeito às imagens radiográficas digitalizadas
somente com o classificador KL (na etapa de treinamento, com 100% dos vetores) obtiveramse
taxas de sucesso individuais entre 70 e 90% de acertos e 100% de sucesso na classificação
quando se concatenaram as curvas de todos os pré-processamentos das imagens.
|
7 |
Precisão e repetibilidade de experimentos no planetlabCosta, Lauro Luis January 2014 (has links)
Orientador : Prof. Dr. Elias P. Duarte Jr. / Co-orientador : Prof. Dr. Luis C. E. Bona / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 02/09/2014 / Inclui referências / Resumo: Desenvolvida como uma rede acadêmica, a Internet cresceu e evoluiu rapidamente. Hoje,
40 anos mais tarde, se tornou uma ampla plataforma de informação, interação social e comércio.
Os usuários e as aplicações da Internet atualmente demandam características de
desempenho, segurança, escalabilidade e mobilidade que não foram previstas no momento
de sua criação. Testbeds de larga escala, como o PlanetLab, são peças chave para o desenvolvimento
e avaliação de novas aplicações e arquiteturas que atendam a estas demandas.
O PlanetLab é um testbed de escala planetária, composto por mais de mil nodos espalhados
ao redor do mundo, que oferece aos seus usuários um ambiente real para a execução de
experimentos. No entanto, a execução de experimentos no PlanetLab é uma atividade que
pode se tornar muito complexa, especialmente por envolver uma grande quantidade de
nodos e a existência de instabilidades no desempenho nos nodos e na rede que os conecta,
prejudicando a precisão e repetibilidade dos resultados obtidos. Por estes motivos, existem
diversas ferramentas para gerenciamento de experimentos e descoberta de recursos
no PlanetLab. Neste trabalho, apresentamos uma avaliação experimental do impacto da
utilização de subconjuntos de nodos selecionados por uma ferramenta de monitoramento
da conectividade entre os nodos na precisão e repetibilidade dos resultados obtidos. São
realizados experimentos utilizando aplicações com diferentes perfis de utilização de recursos
e os resultados obtidos por diferentes subconjuntos de nodos são comparados. A
estratégia de seleção de nodos estudada reduziu a variação dos resultados obtidos em até
27% e obteve média de execução até 26% mais baixa que uma das estratégias alternativas.
Pode-se concluir que a utilização de subconjuntos de nodos selecionados por esta
ferramenta contribui para a precisão, repetibilidade e reprodutibilidade de experimentos
realizados no PlanetLab. Este trabalho também apresenta uma proposta de integração da
ferramenta de seleção de nodos ao portal de gerenciamento de experimentos PlanetMon,
com o objetivo de permitir que usuários do PlanetLab obtenham acesso a ferramenta de
seleção de modo conveniente e transparente enquanto gerenciam seus experimentos. / Abstract: The Internet was originally developed as an academic network more than four decades ago.
Today, it has established itself as a global platform for human communications, allowing
information exchange, social interaction, and e-commerce. Current Internet users and
applications require high levels of performance, security, scalability and mobility. These
characteristics were not predicted at the time of its creation. Large-scale testbeds like
PlanetLab have been developed to allow the design and realistic evaluation of applications
and architectures to supply the new Internet demands. PlanetLab is a planetary scale
testbed, consisting of more than one thousand nodes spread around the globe, offering its
users a realistic environment for experiment execution. However, experiment execution
on PlanetLab can become a complex activity, especially because it involves configuring
a large number of nodes, and because the environment is highly unstable, due to performance
variations of both nodes and their network connections. These instabilities affect
the precision and repeatability of the results obtained. There are several tools for experiment
management and resource discovery on PlanetLab. In this work, we present
an experimental evaluation of the impact of using subsets of nodes selected with different
strategies on the precision and repeatability of the results obtained. Experiments
using applications with different resource requirements were carried out and are reported.
Results show that the selection strategy based on k-cores reduces the variation on
the results obtained by up to 27% and resulted on an average execution time up to 26%
faster compared to other alternatives. The utilization of subsets of nodes selected with
this strategy can thus contribute to the precision, repeatability and reproducibility of
experiments executed on PlanetLab. This work also presents the integration of the node
selection strategy to the experiment management framework PlanetMon. This integration
is intended to allow PlanetLab users to have access to the node selection tool in a
convenient and transparent way for managing their experiments.
|
8 |
Reconhecimento de gêneros musicais utilizando espectrogramas com combinação de classificadoresCosta, Yandre Maldonado e Gomes da January 2013 (has links)
Resumo: Com a rápida expansão da Internet um imenso volume de dados tem se tornado disponível on-line. Entretanto, essa informação não segue um padrão de apresentação e não está disponível de maneira estruturada. Devido a isso, tarefas como busca, recuperação, indexação e sumarização automática dessas informações se tornaram problemas importantes, cujas soluções coadunam no sentido de facilitar o acesso a estes conteúdos. Há algum tempo, a maior parte das informações sobre dados multimídia é organizada e classificada com base em informações textuais. A música digital é um dos mais importantes tipos de dados distribuídos na Internet. Existem muitos estudos a respeito da análise de conteúdo de áudio usando diferentes características e métodos. Um componente fundamental para um sistema de recuperação de informações de áudio baseado em conteúdo é um modulo de classificação automática de gêneros musicais. Os gêneros musicais são rótulos categóricos criados por especialistas humanos e por amadores para determinar ou designar estilos de música. Em alguns trabalhos verificou-se que o gênero musical é um importante atributo para os usuários na organização e recuperação de arquivos de música. Este trabalho propõe o uso de características inovadoras para a representação do conteúdo das músicas, obtidas a partir de imagens de espectrograma geradas a partir do sinal do áudio, para aplicação em tarefas de reconhecimento de gêneros musicais. As imagens de espectrograma apresentam a textura como principal atributo visual. Assim, as características propostas foram obtidas utilizando-se alguns descritores de textura propostos na literatura de processamento de imagens, em particular os descritores Local Binary Pattern e Local Phase Quantization, pois ambos se destacaram por apresentar um bom desempenho. Também foram investigados os impactos proporcionados pelo uso de uma estratégia de preservação de informações locais, através do zoneamento das imagens. O zoneamento propiciou a criação de múltiplos classificadores, um para cada zona, e os melhores resultados foram obtidos com a fusão das saídas destes classificadores. A maioria dos experimentos foi realizada sobre a base LMD com o uso de \artist lter". O método também foi experimentado sobre a base ISMIR 2004. Os melhores resultados obtidos são comparáveis aos melhores resultados já apresentados na literatura utilizando outras abordagens. Considerando os experimentos com a base LMD e com o uso de \artist _lter", os resultados obtidos são superiores ao melhor resultado descrito na literatura até então. Finalmente, seleção dinâmica de classificadores e seleção de características foram avaliadas e mostraram resultados promissores.
|
9 |
Caracterização de personagens críveis em jogos eletrônicosHamilko, Anderson Vermonde January 2014 (has links)
Orientador : Prof. Dr. Fabiano Siva / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 09/09/2014 / Inclui referências / Resumo: Neste trabalho nós estudamos as características comportamentais de personagens
autônomos em jogos eletrônicos e sua influência na credibilidade e na imersão do
jogador na narrativa.
Devido a característica singular da interatividade, há muita discussão no cenário de
jogos com relação a inteligência artificial. No entanto essas discussões quase sempre
estão focadas no desenvolvimento e implementação de soluções. Nosso trabalho
aborda inteligência artificial de um ponto de vista menos convencional, sem tratar
diretamente da implementação, mas sim focando na percepção. Isso significa que
estamos mais interessados na percepção de inteligência por parte do jogador do que
na sua implementação de fato.
Nesse trabalho, procuramos trazer a discussão de credibilidade de personagens, já
bastante discutida em outras mídias, para o âmbito dos jogos eletrônicos. Com foco
específico no comportamento dos personagens, procuramos compreender que
diferentes características influenciam a percepção do jogador.
Com objetivo de ampliar a discussão com relação a credibilidade de personagens no
âmbito de jogos eletrônicos, esse trabalho propõe estabelecer e validar conceitos que
possam ser usados para construção de personagens críveis. Através de pesquisa
empírica e do estudo de trabalhos existentes em jogos e outras mídias, temos como
objetivo desenvolver técnicas que possam ser usadas para explicar e guiar a criação
de personagens críveis, capazes de contribuir com a imersão do jogador.
Palavras-chave: Credibilidade, Personagens, Jogos Eletrônicos / Abstract: In this work we study the behavior of autonomous characters in video games and its
influence on the player believability and narrative immersion.
Due to the unique feature of interactivity, there’s been a lot of research regarding
artificial intelligence in games. However this researches tend to focus on development
and implementation of solutions. Our work approaches artificial intelligence from an
unconventional point of view. We don’t deal directly with the implementation, but rather
focus on player perception. This means we’re more interested in the perceived
intelligence rather than its actual implementation.
In this paper we bring the discussion of characters believability, which has been widely
discussed in various types of media, to the topic of games. Specifically focused on
characters behavior. We try to comprehend the different characteristics responsible for
influencing players perception.
Aiming to expand the dialog regarding character believability in video games, this
paper attempts to establish concepts for creating believable characters. Through
empirical research and literature review of games and other media, we want to develop
techniques to understand and guide the development of believable characters that can
contribute to the player's immersion.
Keywords: Believability, Characters, Games
|
10 |
Um estudo automático de consulta e verificação de assinaturas estáticasLizarraga Espinosa, Miguel Gustavo 26 February 1996 (has links)
Orientador: Lee Luan Ling / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica / Made available in DSpace on 2018-07-21T03:44:35Z (GMT). No. of bitstreams: 1
LizarragaEspinosa_MiguelGustavo_M.pdf: 6472222 bytes, checksum: 0cf6171582d2d49404503657ccf4948c (MD5)
Previous issue date: 1996 / Resumo: A presente tese apresenta um sistema automático de consulta e verificação de assinaturas estáticas. Tal sistema permite mostrar imagens de assinaturas na tela do computador, comprimir e descomprimir imagens de assinaturas, enviar e receber dados via rede de computadores e verificar automáticamente a autenticidade ou não de assinaturas. Como parte do sistema, foi implementado um novo método de compressão de arquivos de assinaturas, que consegue urna taxa de compressão de até 96,05%. Além disso, o presente trabalho, introduz urna nova técnica de extração de características de assinaturas que utiliza operações da morfologia matemática. Nos testes de verificação de assinaturas estáticas, foi utilizado o total de 950 assinaturas. Esse conjunto de assinaturas é dividido em três partes: 550 assinaturas verdadeiras, 100 falsificações aleátorias e 300 assinaturas habilitadas. Como desempenho do nosso sistema de verificação, obtivemos as médias de taxas de erros iguais de 14,6 % frente a falsificações habilitadas e de 3,0 % frente a falsificações aleatórias / Abstract; Not informed. / Mestrado / Mestre em Engenharia Elétrica
|
Page generated in 0.1492 seconds