• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 533
  • 48
  • 40
  • 40
  • 40
  • 25
  • 25
  • 25
  • 25
  • 25
  • 15
  • 6
  • Tagged with
  • 587
  • 587
  • 298
  • 282
  • 209
  • 180
  • 129
  • 120
  • 114
  • 100
  • 87
  • 84
  • 80
  • 80
  • 74
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Rede Neural Probabilística para a Classificação de Atividades Econômicas

CIARELLI, P. M. 22 February 2008 (has links)
Made available in DSpace on 2016-08-29T15:32:27Z (GMT). No. of bitstreams: 1 tese_2374_DissCiarelli.pdf: 657695 bytes, checksum: 2e3f00e12cb68ef17232b66f664a2f00 (MD5) Previous issue date: 2008-02-22 / Este trabalho apresenta uma abordagem baseada em Redes Neurais Artificiais para problemas de classificação multi-rotulada. Em particular, foi empregada uma versão modificada da Rede Neural Probabilística para tratar de tais problemas. Em experimentos realizados em várias bases de dados conhecidas na literatura, a Rede Neural Probabilística proposta apresentou um desempenho comparável, e algumas vezes até superior, a outros algoritmos especializados neste tipo de problema. Como o foco principal deste trabalho foi o estudo de estratégias para classificação automática de texto de atividades econômicas, foram realizados também experimentos utilizando uma base de dados de atividades econômicas. No entanto, diferente das bases de dados utilizadas anteriormente, esta base de dados apresenta um número extenso de categorias e poucas amostras de treino por categoria, o que aumenta o grau de dificuldade deste problema. Nos experimentos realizados foram utilizados a Rede Neural Probabilística proposta, o classificador k-Vizinhos mais Próximos Multi-rotulado, e um Algoritmo Genético para otimização dos parâmetros dos mesmos. Nas métricas utilizadas para avaliação de desempenho, a Rede Neural Probabilística mostrou resultados superiores e comparáveis aos resultados obtidos pelo k-Vizinhos mais Próximos Multi-rotulado, mostrando que a abordagem utilizada neste trabalho é promissora.
52

Extração e comparação de características locais para o reconhecimento facial por meio de retratos falados.

Silva, Marco Antonio de Albuquerque January 2014 (has links)
Programa de Pós-Graduação em Ciência da Computação. Departamento de Ciência da Computação, Instituto de Ciências Exatas e Biológicas, Universidade Federal de Ouro Preto. / Submitted by Oliveira Flávia (flavia@sisbin.ufop.br) on 2014-09-04T18:59:52Z No. of bitstreams: 2 license_rdf: 22741 bytes, checksum: 6d485fa57a2ebb95a6dd0efb0da258db (MD5) DISSERTAÇÃO_ExtraçãoComparaçãoCaracterísticas.pdf: 5036840 bytes, checksum: 6799cb5c3196f4f2ee23940dc19f6b2f (MD5) / Approved for entry into archive by Gracilene Carvalho (dara_gmc@hotmail.com) on 2015-01-21T18:36:46Z (GMT) No. of bitstreams: 2 license_rdf: 22741 bytes, checksum: 6d485fa57a2ebb95a6dd0efb0da258db (MD5) DISSERTAÇÃO_ExtraçãoComparaçãoCaracterísticas.pdf: 5036840 bytes, checksum: 6799cb5c3196f4f2ee23940dc19f6b2f (MD5) / Made available in DSpace on 2015-01-21T18:36:46Z (GMT). No. of bitstreams: 2 license_rdf: 22741 bytes, checksum: 6d485fa57a2ebb95a6dd0efb0da258db (MD5) DISSERTAÇÃO_ExtraçãoComparaçãoCaracterísticas.pdf: 5036840 bytes, checksum: 6799cb5c3196f4f2ee23940dc19f6b2f (MD5) Previous issue date: 2014 / Sistemas de reconhecimento facial através de retratos falados são muito importantes para agências de segurança. Esses sistemas podem ajudar a localizar ou diminuir o número de potenciais suspeitos. Recentemente, vários métodos foram propostos para resolver esse problema, mas não há uma comparação clara de desempenho entre eles. Neste trabalho é proposta uma nova abordagem para o reconhecimento facial através de fotografias/retratos falados baseada no Local Feature-based Discriminant Analysis (LFDA). Esse novo método foi testado e comparado com seus antecessores, utilizando três diferentes conjuntos de imagens (retratos falados) e também com a adição de uma galeria extra de 10.000 fotografias para estender a galeria. Experimentos utilizando as bases de imagens CUFS e CUFSF mostraram que a nossa abordagem supera as abordagens do estado-da-arte, além de ser 43% mais rápido que o segundo método, o LFDA. Nossa abordagem também mostra bons resultados com forensic sketches. A limitação ao avaliar este conjunto de imagens está no seu tamanho muito pequeno. Ao aumentar o conjunto de dados de treinamento, a precisão da nossa abordagem vai aumentar, uma vez que foi demonstrado por nossos experimentos. Além disso, demonstramos o desempenho e comparamos vários descritores e os principais métodos, utilizando três bases de dados diferentes e uma galeria extra, tal comparação não existia na literatura. ______________________________________________________________________________ / ABSTRACT: Systems for face sketch recognition are very important for law enforcement agencies. These systems can help to locate or narrow down potential suspects. Recently, various methods was proposed to address this problem, but there is no clear comparison of their performance. We propose a new approach for photo/sketch recognition based on the Local Feature-based Discriminant Analysis (LFDA) method. This new approach was tested and compared with its predecessors using three differents datasets and also adding an extra gallery of 10,000 photos to extend the gallery. Experiments using the CUFS and CUFSF databases show that our approach outperforms the state-of-the-art approaches, and it is 43% faster than the second method, the LFDA. Our approach also shows good results with forensic sketches. The limitation with this dataset is its very small size. By increasing the training dataset, the accuracy of our approach will increase, as it was demonstrated by our experiments. Furthermore, we demonstrate the performance and compare various descriptors and the main methods, using three different databases and an extra gallery, such a comparison does not exist in the literature.
53

Uma proposta baseada em padrões de design para o desenvolvimento de sistemas cooperativos em ambiente aberto /

Castro, Ceferino Castro January 1999 (has links)
Dissertação (Mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. / Made available in DSpace on 2012-10-18T16:32:05Z (GMT). No. of bitstreams: 0Bitstream added on 2016-01-09T04:15:13Z : No. of bitstreams: 1 151846.pdf: 1934398 bytes, checksum: 94d2fe297eebfbb8b39ad25210bd09c6 (MD5) / No trabalho apresentado nesta dissertação, uma questão importante sobre os padrões de design é abordada: Os padrões de design constituem uma boa ferramenta para a construção de sistemas cooperativos flexíveis e reutilizáveis? Para tanto, foi desenvolvido um sistema de conversação virtual sobre o ambiente Internet utilizando-se uma metodologia totalmente baseada em padrões de design. O sistema inteiro foi desenvolvido sobre a plataforma Java da Sun Microsystems. O nível de reutilização do sistema foi avaliado sob o aspecto funcional, estendendo-o com novas funcionalidades, e estrutural, modificando sua estrutura de interação.
54

Um modelo perceptivo de limiarizaçao de imagens digitais

Lopes, Fabrício Martins 27 August 2012 (has links)
Resumo: O problema de segmentação de imagens digitais tem gerado uma grande diversidade de abordagens para solucioná-lo. Uma abordagem bastante simples, a limiarização, ainda tem sido intensivamente utilizada, por viabilizar aplicações de visão em tempo-real. No entanto, muitas vezes os critérios utilizados na limiarização dependem de atributos entrópicos ou estatísticos da imagem. Procurando investigar qual a relação destes atributos com respostas subjetivas de limiarização, este trabalho desenvolve um modelo de limiarização de imagens baseado nestas respostas, generalizando-as com um modelo resultante do treinamento de uma Rede de Funções de Base Radial (RFBR). As respostas subjetivas foram colhidas em um experimento psicofísico no qual os sujeitos são instados a escolher um limiar que separe melhor o(s) objeto(s) do fundo de uma imagem digital. Este trabalho sugere também uma avaliação de métodos automáticos de limiarização comparando as respostas destes métodos com as respostas atribuídas por sujeitos humanos. Este resultado é confrontado com as comparações entre as respostas dos humanos e as respostas do modelo RFBR, apontando para um possível grau de incerteza com que as respostas são geradas em cada método, e que permite seu uso como uma medida de desempenho de métodos automáticos.
55

Precisão e repetibilidade de experimentos no planetlab

Costa, Lauro Luis January 2014 (has links)
Orientador : Prof. Dr. Elias P. Duarte Jr. / Co-orientador : Prof. Dr. Luis C. E. Bona / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 02/09/2014 / Inclui referências / Resumo: Desenvolvida como uma rede acadêmica, a Internet cresceu e evoluiu rapidamente. Hoje, 40 anos mais tarde, se tornou uma ampla plataforma de informação, interação social e comércio. Os usuários e as aplicações da Internet atualmente demandam características de desempenho, segurança, escalabilidade e mobilidade que não foram previstas no momento de sua criação. Testbeds de larga escala, como o PlanetLab, são peças chave para o desenvolvimento e avaliação de novas aplicações e arquiteturas que atendam a estas demandas. O PlanetLab é um testbed de escala planetária, composto por mais de mil nodos espalhados ao redor do mundo, que oferece aos seus usuários um ambiente real para a execução de experimentos. No entanto, a execução de experimentos no PlanetLab é uma atividade que pode se tornar muito complexa, especialmente por envolver uma grande quantidade de nodos e a existência de instabilidades no desempenho nos nodos e na rede que os conecta, prejudicando a precisão e repetibilidade dos resultados obtidos. Por estes motivos, existem diversas ferramentas para gerenciamento de experimentos e descoberta de recursos no PlanetLab. Neste trabalho, apresentamos uma avaliação experimental do impacto da utilização de subconjuntos de nodos selecionados por uma ferramenta de monitoramento da conectividade entre os nodos na precisão e repetibilidade dos resultados obtidos. São realizados experimentos utilizando aplicações com diferentes perfis de utilização de recursos e os resultados obtidos por diferentes subconjuntos de nodos são comparados. A estratégia de seleção de nodos estudada reduziu a variação dos resultados obtidos em até 27% e obteve média de execução até 26% mais baixa que uma das estratégias alternativas. Pode-se concluir que a utilização de subconjuntos de nodos selecionados por esta ferramenta contribui para a precisão, repetibilidade e reprodutibilidade de experimentos realizados no PlanetLab. Este trabalho também apresenta uma proposta de integração da ferramenta de seleção de nodos ao portal de gerenciamento de experimentos PlanetMon, com o objetivo de permitir que usuários do PlanetLab obtenham acesso a ferramenta de seleção de modo conveniente e transparente enquanto gerenciam seus experimentos. / Abstract: The Internet was originally developed as an academic network more than four decades ago. Today, it has established itself as a global platform for human communications, allowing information exchange, social interaction, and e-commerce. Current Internet users and applications require high levels of performance, security, scalability and mobility. These characteristics were not predicted at the time of its creation. Large-scale testbeds like PlanetLab have been developed to allow the design and realistic evaluation of applications and architectures to supply the new Internet demands. PlanetLab is a planetary scale testbed, consisting of more than one thousand nodes spread around the globe, offering its users a realistic environment for experiment execution. However, experiment execution on PlanetLab can become a complex activity, especially because it involves configuring a large number of nodes, and because the environment is highly unstable, due to performance variations of both nodes and their network connections. These instabilities affect the precision and repeatability of the results obtained. There are several tools for experiment management and resource discovery on PlanetLab. In this work, we present an experimental evaluation of the impact of using subsets of nodes selected with different strategies on the precision and repeatability of the results obtained. Experiments using applications with different resource requirements were carried out and are reported. Results show that the selection strategy based on k-cores reduces the variation on the results obtained by up to 27% and resulted on an average execution time up to 26% faster compared to other alternatives. The utilization of subsets of nodes selected with this strategy can thus contribute to the precision, repeatability and reproducibility of experiments executed on PlanetLab. This work also presents the integration of the node selection strategy to the experiment management framework PlanetMon. This integration is intended to allow PlanetLab users to have access to the node selection tool in a convenient and transparent way for managing their experiments.
56

Reconhecimento de gêneros musicais utilizando espectrogramas com combinação de classificadores

Costa, Yandre Maldonado e Gomes da January 2013 (has links)
Resumo: Com a rápida expansão da Internet um imenso volume de dados tem se tornado disponível on-line. Entretanto, essa informação não segue um padrão de apresentação e não está disponível de maneira estruturada. Devido a isso, tarefas como busca, recuperação, indexação e sumarização automática dessas informações se tornaram problemas importantes, cujas soluções coadunam no sentido de facilitar o acesso a estes conteúdos. Há algum tempo, a maior parte das informações sobre dados multimídia é organizada e classificada com base em informações textuais. A música digital é um dos mais importantes tipos de dados distribuídos na Internet. Existem muitos estudos a respeito da análise de conteúdo de áudio usando diferentes características e métodos. Um componente fundamental para um sistema de recuperação de informações de áudio baseado em conteúdo é um modulo de classificação automática de gêneros musicais. Os gêneros musicais são rótulos categóricos criados por especialistas humanos e por amadores para determinar ou designar estilos de música. Em alguns trabalhos verificou-se que o gênero musical é um importante atributo para os usuários na organização e recuperação de arquivos de música. Este trabalho propõe o uso de características inovadoras para a representação do conteúdo das músicas, obtidas a partir de imagens de espectrograma geradas a partir do sinal do áudio, para aplicação em tarefas de reconhecimento de gêneros musicais. As imagens de espectrograma apresentam a textura como principal atributo visual. Assim, as características propostas foram obtidas utilizando-se alguns descritores de textura propostos na literatura de processamento de imagens, em particular os descritores Local Binary Pattern e Local Phase Quantization, pois ambos se destacaram por apresentar um bom desempenho. Também foram investigados os impactos proporcionados pelo uso de uma estratégia de preservação de informações locais, através do zoneamento das imagens. O zoneamento propiciou a criação de múltiplos classificadores, um para cada zona, e os melhores resultados foram obtidos com a fusão das saídas destes classificadores. A maioria dos experimentos foi realizada sobre a base LMD com o uso de \artist lter". O método também foi experimentado sobre a base ISMIR 2004. Os melhores resultados obtidos são comparáveis aos melhores resultados já apresentados na literatura utilizando outras abordagens. Considerando os experimentos com a base LMD e com o uso de \artist _lter", os resultados obtidos são superiores ao melhor resultado descrito na literatura até então. Finalmente, seleção dinâmica de classificadores e seleção de características foram avaliadas e mostraram resultados promissores.
57

Caracterização de personagens críveis em jogos eletrônicos

Hamilko, Anderson Vermonde January 2014 (has links)
Orientador : Prof. Dr. Fabiano Siva / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 09/09/2014 / Inclui referências / Resumo: Neste trabalho nós estudamos as características comportamentais de personagens autônomos em jogos eletrônicos e sua influência na credibilidade e na imersão do jogador na narrativa. Devido a característica singular da interatividade, há muita discussão no cenário de jogos com relação a inteligência artificial. No entanto essas discussões quase sempre estão focadas no desenvolvimento e implementação de soluções. Nosso trabalho aborda inteligência artificial de um ponto de vista menos convencional, sem tratar diretamente da implementação, mas sim focando na percepção. Isso significa que estamos mais interessados na percepção de inteligência por parte do jogador do que na sua implementação de fato. Nesse trabalho, procuramos trazer a discussão de credibilidade de personagens, já bastante discutida em outras mídias, para o âmbito dos jogos eletrônicos. Com foco específico no comportamento dos personagens, procuramos compreender que diferentes características influenciam a percepção do jogador. Com objetivo de ampliar a discussão com relação a credibilidade de personagens no âmbito de jogos eletrônicos, esse trabalho propõe estabelecer e validar conceitos que possam ser usados para construção de personagens críveis. Através de pesquisa empírica e do estudo de trabalhos existentes em jogos e outras mídias, temos como objetivo desenvolver técnicas que possam ser usadas para explicar e guiar a criação de personagens críveis, capazes de contribuir com a imersão do jogador. Palavras-chave: Credibilidade, Personagens, Jogos Eletrônicos / Abstract: In this work we study the behavior of autonomous characters in video games and its influence on the player believability and narrative immersion. Due to the unique feature of interactivity, there’s been a lot of research regarding artificial intelligence in games. However this researches tend to focus on development and implementation of solutions. Our work approaches artificial intelligence from an unconventional point of view. We don’t deal directly with the implementation, but rather focus on player perception. This means we’re more interested in the perceived intelligence rather than its actual implementation. In this paper we bring the discussion of characters believability, which has been widely discussed in various types of media, to the topic of games. Specifically focused on characters behavior. We try to comprehend the different characteristics responsible for influencing players perception. Aiming to expand the dialog regarding character believability in video games, this paper attempts to establish concepts for creating believable characters. Through empirical research and literature review of games and other media, we want to develop techniques to understand and guide the development of believable characters that can contribute to the player's immersion. Keywords: Believability, Characters, Games
58

Método Grid-Quadtree para seleção de parâmetros do algoritmo support vector classification (SVC)

Beltrami, Monica January 2016 (has links)
Orientador : Prof. Dr. Arinei Carlos Lindbeck da Silva / Tese (doutorado) - Universidade Federal do Paraná, Setor de Tecnologia, Programa de Pós-Graduação em Métodos Numéricos em Engenharia. Defesa: Curitiba, 01/06/2016 / Inclui referências : f. 143-149 / Área de concentração : Programação matemática / Resumo: O algoritmo Support Vector Classification (SVC) é uma técnica de reconhecimento de padrões, cuja eficiência depende da seleção de seus parâmetros: constante de regularização C, função kernel e seus respectivos parâmetros. A escolha equivocada dessas variáveis impacta diretamente na performance do algoritmo, acarretando em fenômenos indesejáveis como o overfitting e o underfitting. O problema que estuda a procura de parâmetros ótimos para o SVC, em relação às suas medidas de desempenho, é denominado seleção de modelos do SVC. Em virtude do amplo domínio de convergência do kernel gaussiano, a maioria dos métodos destinados a solucionar esse problema concentra-se na seleção da constante C e do parâmetro ? do kernel gaussiano. Dentre esses métodos, a busca por grid é um dos de maior destaque devido à sua simplicidade e bons resultados. Contudo, por avaliar todas as combinações de parâmetros (C, ?) dentre o seu espaço de busca, a mesma necessita de muito tempo de processamento, tornando-se impraticável para avaliação de grandes conjuntos de dados. Desta forma, o objetivo deste trabalho é propor um método de seleção de parâmetros do SVC, usando o kernel gaussiano, que combine a técnica quadtree à busca por grid, para reduzir o número de operações efetuadas pelo grid e diminuir o seu custo computacional. A ideia fundamental é empregar a quadtree para desenhar a boa região de parâmetros, evitando avaliações desnecessárias de parâmetros situados nas áreas de underfitting e overfitting. Para isso, desenvolveu-se o método grid-quadtree (GQ), utilizando-se a linguagem de programação VB.net em conjunto com os softwares da biblioteca LIBSVM. Na execução do GQ, realizou-se o balanceamento da quadtree e criou-se um procedimento denominado refinamento, que permitiu delinear a curva de erro de generalização de parâmetros. Para validar o método proposto, empregaram-se vinte bases de dados referência na área de classificação, as quais foram separadas em dois grupos. Os resultados obtidos pelo GQ foram comparados com os da tradicional busca por grid (BG) levando-se em conta o número de operações executadas por ambos os métodos, a taxa de validação cruzada (VC) e o número de vetores suporte (VS) associados aos parâmetros encontrados e a acurácia do SVC na predição dos conjuntos de teste. A partir das análises realizadas, constatou-se que o GQ foi capaz de encontrar parâmetros de excelente qualidade, com altas taxas VC e baixas quantidades de VS, reduzindo em média, pelo menos, 78,8124% das operações da BG para o grupo 1 de dados e de 71,7172% a 88,7052% para o grupo 2. Essa diminuição na quantidade de cálculos efetuados pelo quadtree resultou em uma economia de horas de processamento. Além disso, em 11 das 20 bases estudadas a acurácia do SVC-GQ foi superior à do SVC-BG e para quatro delas igual. Isso mostra que o GQ é capaz de encontrar parâmetros melhores ou tão bons quanto os da BG executando muito menos operações. Palavras-chave: Seleção de modelos do SVC. Kernel gaussiano. Quadtree. Redução de operações. / Abstract: The Support Vector Classification (SVC) algorithm is a pattern recognition technique, whose efficiency depends on its parameters selection: the penalty constant C, the kernel function and its own parameters. A wrong choice of these variables values directly impacts on the algorithm performance, leading to undesirable phenomena such as the overfitting and the underfitting. The task of searching for optimal parameters with respect to performance measures is called SVC model selection problem. Due to the Gaussian kernel wide convergence domain, many model selection approaches focus in determine the constant C and the Gaussian kernel ? parameter. Among these, the grid search is one of the highlights due to its easiest way and high performance. However, since it evaluates all parameters combinations (C, ?) on the search space, it requires high computational time and becomes impractical for large data sets evaluation. Thus, the aim of this thesis is to propose a SVC model selection method, using the Gaussian kernel, which integrates the quadtree technique with the grid search to reduce the number of operations performed by the grid and its computational cost. The main idea of this study is to use the quadtree to determine the good parameters region, neglecting the evaluation of unnecessary parameters located in the underfitting and the overfitting areas. In this regard, it was developed the grid-quadtree (GQ) method, which was implemented on VB.net development environment and that also uses the software of the LIBSVM library. In the GQ execution, it was considered the balanced quadtree and it was created a refinement procedure, that allowed to delineate the parameters generalization error curve. In order to validate the proposed method, twenty benchmark classification data set were used, which were separated into two groups. The results obtained via GQ were compared with the traditional grid search (GS) ones, considering the number of operations performed by both methods, the cross-validation rate (CV) and the number of support vectors (SV) associated to the selected parameters, and the SVC accuracy in the test set. Based on this analyzes, it was concluded that GQ was able to find excellent parameters, with high CV rates and few SV, achieving an average reduction of at least 78,8124% on GS operations for group 1 data and from 71,7172% to 88,7052% for group 2. The decrease in the amount of calculations performed by the quadtree lead to savings on the computational time. Furthermore, the SVC-GQ accuracy was superior than SVC-GS in 11 of the 20 studied bases and equal in four of them. These results demonstrate that GQ is able to find better or as good as parameters than BG, but executing much less operations. Key words: SVC Model Selection. Gaussian kernel. Quadtree. Reduction Operations
59

Determinação da matriz de um sistema óptico por um processo fotogramétrico

Soares, Wilson Alcantara, 1951- January 1995 (has links)
Orientador: Quintino Dalmolin / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Tecnologia, Programa de Pós-Graduação em Ciências Geodésicas / Resumo: A matriz de um sistema óptico pode ser determinada através do conhecimento dos elementos físicos e geométricos das lentes, os quais são: os raios das suas superfícies esféricas, as espessuras de cada lente, as distancias entre elas e o índice de refração de cada material de que elas são feitas. Esta matriz tem os seus elementos dependentes de cada um dos fatores acima e ela corresponde a "identidade" do sistema óptico. A variação em um deles e suficiente para mudar os elementos da matriz. Muitas informações são expressas, ao mesmo tempo, nos quatro elementos desta matriz. Então, eles devem conter informações sobre distorções do sistema óptico, quando determinadas por um processo fotogramétrico. Um estudo cuidadoso da matriz do sistema óptico deve trazer novos modelos para o tratamento destas distorções. Este trabalho apresenta um processo fotogramétrico para determinar esta matriz, onde o sistema óptico e considerado como um bloco. Não e importante saber sobre as suas partes internas. Esta matriz e calculada por meio do conhecimento dos pontos do terreno ( espaço objeto ) e seus correspondentes pontos na fotografia ( espaço imagem ). Com o propósito de verificar a viabilidade de aplicação deste método, os erros que podem ser cometidos são analisados nos processos de medição. Como conclusão, com o uso de equipamentos, de catálogos técnicos, e possível aplicar este método. Também e sugerida a construção de equipamentos especialmente desenvolvidos para a determinação da matriz do sistema óptico pelo método fotogramétrico. / Abstract: The optical system matrix can be determinated through the knowledge of the lens physical and geometrical elements, which are: its spherical surface radius, the thickness of each lens, the distance between them and the refraction index of the materials they are composed of. This matrix has its elements depending on each one of the factors above and they correspond to the "identity" of the optical system. The variation of one of them is enough to produce changes in the matrix elements. Many information are expressed, at the same time, in the four elements of this matrix. So that, they should have an information about distortions of the optical system, when determinated by a photogrammetric process. This work presents a photogrammetric process to determine this matrix, where the optical system is considered like a block. It is not important to know its inner components. This matrix is calculated through the knowledge of the ground points ( the object space ) and its corresponding points in the photography ( image space ). With the purpose of verifying the viability of application of this method, the errors that can be undertaken are analized in the measuring processes. As a conclusion, with the use of the equipment from some technical cathalogs, it is possible to apply this method. Besides this, it is suggested the construction of some equipment specially developed for the optical system matrix determination by the photogrammetric method.
60

Análise e classificaçao de imagens baseadas em características de textura utilizando matrizes de co-ocorrencia

Nascimento, Joao Paulo Ribeiro do 08 February 2011 (has links)
Resumo: Os métodos de classificação de imagens baseados em características texturais têm sido amplamente utilizados no meio científico e industrial, possuindo aplicações na medicina, microscopía, sensoriamento remoto, controle de qualidade, recuperação de dados em bases gráficas, dentre outras. A característica de textura é uma fonte importante de informações para o processo de análise e interpretação de imagens. Inicialmente, este trabalho apresenta conceitos sobre textura e uma revisão bibliográfica sobre os principais estudos envolvendo técnicas para análise de texturas, principalmente estatísticas de segunda ordem. São avaliados diversos métodos de classificação supervisionada de imagens baseada em informação de textura, tais como o classificador de distância mínima, /o-vizinhos mais próximos, máxima verossimilhança, redes neurais e um novo classificador baseado em intervalos de decisão. Neste trabalho, a textura é definida através de um conjunto de medidas locais descrevendo as variações espaciais de intensidade ou cor. Tais medidas são calculadas utilizando-se matrizes de co-ocorrência. São abordados também detalhes relevantes sobre redução de dimensionalidade, extração e seleção de características que influenciam a precisão e desempenho do classificador. Resultados experimentais utilizando uma grande variedade de imagens reais demonstram a aplicabilidade dos métodos.

Page generated in 0.1101 seconds