• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 533
  • 48
  • 40
  • 40
  • 40
  • 25
  • 25
  • 25
  • 25
  • 25
  • 15
  • 6
  • Tagged with
  • 587
  • 587
  • 298
  • 282
  • 209
  • 180
  • 129
  • 120
  • 114
  • 100
  • 87
  • 84
  • 80
  • 80
  • 74
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
291

Segmentação de imagens de rochas e classificação de litofácies utilizando floresta de caminhos ótimos / Segmentation of rock images and lithofacies classification using optimum-path forest

Mingireanov Filho, Ivan, 1977- 22 August 2018 (has links)
Orientadores: Alexandre Campane Vidal, Alexandre Xavier Falcão / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Mecânica e Instituto de Geociências / Made available in DSpace on 2018-08-22T17:02:26Z (GMT). No. of bitstreams: 1 MingireanovFilho_Ivan_M.pdf: 33856245 bytes, checksum: 516137beeec348cf169f06272d16b0cb (MD5) Previous issue date: 2013 / Resumo: A caracterização de reservatórios é fundamental na construção do modelo geológico para a produção do campo. O melhoramento de técnicas matemáticas, que auxiliam a interpretação geológica, influencia diretamente o plano de desenvolvimento e gerenciamento dos poços. Nesse sentido, este trabalho utiliza uma aplicação inédita na caracterização de reservatórios da técnica de Transformada Imagem Floresta (Image Foresting Transform - IFT) em segmentação de imagens de rocha para a análise petrofísica. A técnica interpreta a imagem como um grafo, onde os pixels são os nós e os arcos são definidos por uma relação de adjacência entre os pixels. O custo de um caminho no grafo é determinado por uma função que depende das propriedades locais da imagem. As raízes da floresta surgem de um conjunto de pixels escolhidos como sementes e a IFT atribui um caminho de custo mínimo das sementes a cada pixel da imagem para gerar uma Floresta de Caminhos Ótimos (Optimum-Path Forest - OPF). Com isso, nas imagens de lâminas de arenito, os grãos são segmentados em relação ao poro e os grãos em contato são separados entre si. Com os resultados obtidos é possível o estudo da morfologia dos grãos e porosidade da amostra. O método consiste de dois processos principais, um totalmente automático para segmentar a imagem e outro que utiliza uma interface gráfica para permitir correções dos erros de classificação gerados pelo processo automático. A acurácia é medida comparando a imagem corrigida por interação do usuário com a segmentada automaticamente. Outra aplicação inédita apresentada no trabalho é a utilização do classificador supervisionado baseado em OPF para a classificação de dados de perfilagem geofísica do campo de Namorado / Abstract: The reservoir characterization is fundamental in the construction process of geological model for field production. The improvement of mathematical techniques that assist the geological interpretation, has a directly influence in the development plan and management of the wells. Accordingly, this study uses a novel application in reservoir characterization, Image Foresting Forest (IFT) technique to image segmentation of rock for petrophysical analysis. The IFT interprets an image as a graph, whose nodes are the image pixels, the arcs are defined by an adjacency relation between pixels, and the paths are valued by a connectivity function. The roots of forest are a set of pixels selected as seeds and the IFT assigns a minimum path-cost to each image pixel generation an Optimum-Path Forest (OPF). The result is a segmentation of grains from pore in sandstone thin section images and the separation of the touching grains automatically. This allows the study of grain morphology and sample porosity. The method consists of two major processes: first, a totally automatic image segmentation and second and user interaction to correct misclassified grains. The accuracy is computed comparing the corrected image by the user with the image segmented automatically. Another novel application presented in the work is the use of supervised classification based on OPF for classification of geophysical logging data from Campo de Namorado / Mestrado / Reservatórios e Gestão / Mestre em Ciências e Engenharia de Petróleo
292

Aglomeração de pixels pela transformada imagem floresta e sua aplicação em segmentação de fundo de imagens natuarais / Clustering of pixels by image foresting transform and its application in background segmentation of natural images

Silva, Maíra Saboia da 19 August 2018 (has links)
Orientador: Alexandre Xavier Falcão / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-19T04:43:31Z (GMT). No. of bitstreams: 1 Silva_MairaSaboiada_M.pdf: 1907857 bytes, checksum: 515dfcdf136f4e9cc1c1d8b0690b3116 (MD5) Previous issue date: 2011 / Resumo: Esta dissertação apresenta uma metodologia automática para separar objetos de interesse em imagens naturais. Objetos de interesse são definidos como os maiores objetos que se destacam com relação aos pixels em torno deles dentro de uma imagem. Estes objetos não precisam necessariamente estar centrados, mas devem possuir o mínimo possível de pixels na região assumida como fundo da imagem (e.g., borda de imagem com uma dada espessura). A metodologia é baseada em segmentação de fundo e pode ser dividida em duas etapas. Primeiramente, um modelo nebuloso é criado para o fundo da imagem utilizando um método de agrupamento baseado em função densidade de probabilidade das cores de fundo. A partir do modelo é criado um mapa de pertinência, onde os pixels de objeto são mais claros do que os pixels de fundo. Foram investigadas técnicas de agrupamento baseadas em deslocamento médio, transformada imagem floresta, mistura de Gaussianas e maximização da esperança. Três métodos para criação do mapa de pertinência foram propostos e comparados; um inteiramente baseado na transformada imagem floresta, o outro em mistura de Gaussianas e o terceiro em maximização da esperança. Nos dois últimos casos, o agrupamento baseado na transformada imagem floresta foi utilizado como estimativa inicial dos grupos. Em seguida, o mapa de pertinência é utilizado para possibilitar a seleção de pixels sementes de objeto e fundo. Estes pixels geram um agrupamento binário da imagem colorida que separa o fundo do(s) objeto(s). Os experimentos foram realizados com uma base heterogênea composta por 50 imagens naturais. Os melhores resultados foram os obtidos pela metodologia inteiramente baseada na Transformada Imagem Floresta. Para justificar o uso de um agrupamento binário das cores para segmentação, os resultados foram comparados com uma limiarização ótima, aplicada ao mapa de pertinência. Esses testes foram realizados com o algoritmo de Otsu, mas o agrupamento binário apresentou melhores resultados. Também foi proposto um método híbrido de binarização do mapa de pertinência, envolvendo a limiarização de Otsu e a transformada imagem floresta. Neste caso, a limiarização de Otsu reduz o número de parâmetros em relação à primeira / Abstract: This work presents a new methodology for automatic extraction of desired objects in natural images. Objects of interest are defined as the largest components that differ from their surrounding pixels in a given image. These objects do not need to be centered, but they should contain a minimum number of pixels in the region assumed as background (e.g., an image border of certain thickness). This methodology is based on background segmentation and it can be summarized in two steps. First, a fuzzy model is created by a clustering method based on probability density function of the background colors. This model is a membership map, wherein object pixels are brighter than background pixels. For clustering, the following techniques were investigated: mean-shift, image foresting transform, Gaussian mixture model and expectation maximization. We then propose and compare three approaches to create a membership map; a first method entirely based on the image foresting transform, a second approach based on Gaussian mixture model and a third tecnique using expectation maximization. The clustering based on image foresting transform was adopted as the initial estimate for the clusters in the case of the two last methods. In a second step, the membership map is used to enable the selection of object and background seed pixels. These pixels create a binary clustering of the color pixels that separates background and object(s). The experiments involved a heterogeneous dataset with 50 natural images. The approach entirely based on the image foresting transform provided the best result. In order to justify the use of a binary clustering of color pixels instead of optimum thresholding on the membership map, we demonstrated that the binary clustering can provide a better result than Otsu's approach. It was also proposed a hybrid approach to binarize the membership map, which combines Otsu's thresholding and image foresting transform. In this case, Otsu's thresholding reduces the number of parameters in regard to the first approach / Mestrado / Ciência da Computação / Mestre em Ciência da Computação
293

Uma metodologia para avaliação de pacotes de software biometricos

Sucupira Junior, Luiz Humberto Rabelo 03 August 2018 (has links)
Orientadores: Lee Luan Ling, Miguel Gustavo Lizarraga / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-03T21:35:15Z (GMT). No. of bitstreams: 1 SucupiraJunior_LuizHumbertoRabelo_M.pdf: 4415563 bytes, checksum: 641946f8af8af2fa716eea36bb57c123 (MD5) Previous issue date: 2004 / Mestrado
294

Sistema de reconhecimento de fala baseado em redes neurais artificiais

Runstein, Fernando Oscar 10 September 1998 (has links)
Orientador: Fabio Violaro / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-07-24T14:15:07Z (GMT). No. of bitstreams: 1 Runstein_FernandoOscar_D.pdf: 12230122 bytes, checksum: c881b8dbd3ee58b6586540e4f1df16f3 (MD5) Previous issue date: 1998 / Resumo: Neste trabalho são comparadas diferentes configurações de redes neurais, diversos tipos de análise do sinal de voz e diferentes parâmetros de entrada da rede neural, com o objetivo de defInir o melhor sistema de reconhecimento de fala para palavras isoladas, independente do locutor e baseado em redes neurais artifIciais. Um dos problemas abordados é o das redes neurais terem um número fixo de entradas enquanto as palavras a reconhecer terem durações diferentes. Duas soluções são propostas para resolver este problema: dizimação/interpolação de quadros analisando as palavras com quadros de duração fixa dizimação/interpolação de quadros usando análise síncrona com o pitch. Ambos métodos apresentaram melhores resultados que os usualmente utilizados. Também é proposto um novo método de adaptação do sistema de reconhecimento de fala às características espectrais da voz do locutor, de forma a melhorar os índices de reconhecimento do sistema. Com este método conseguiu-se diminuir as taxas de erro em até 18%. Os sistemas foram avaliados com sinais ruidosos e sem ruído. Em testes independentes do locutor realizados com vocabulários de 10 a 32 palavras, obtiveram-se taxas de acerto superiores a 96% / Abstract: In this work we compared different neural network configurations, different speech analysis procedures and different neural net input parameters. The goal was to defme the best isolated word, speaker independent, speech recognition system based on artificialneural networks. One of the problems we worked on was how to deal with different word duration and fixed number of inputs of a neural network. Two solutions are proposed to solve this problem. One of hem, pitch-synchronous analysis, is new in speech recognition and produced very good results. It is also proposed in this work, a new method to adapt the speech recognition system to the spectral characteristics of the speaker's speech, in order to improve the recognition rate. With this method we diminished the error rates up to 18%. The systems were assessed with noise and noiseless signals. On speaker independent tests with 10 to 32 word vocabularies, we obtained word recognition rates better than 96% / Doutorado / Doutor em Engenharia Elétrica
295

Classificação automatica e analise de dados por redes neurais auto-organizaveis

Costa, Jose Alfredo Ferreira 16 December 1999 (has links)
Orientador: Marcio Luiz de Andrade Netto / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-07-25T20:20:48Z (GMT). No. of bitstreams: 1 Costa_JoseAlfredoFerreira_D.pdf: 26064111 bytes, checksum: 45919f0230fa64ef69e0d07ea0363d6c (MD5) Previous issue date: 1999 / Resumo: Esta tese apresenta extensões ao modelo básico de rede neural auto-organizável, a rede de Kohonen (SOM), viabilizando seu uso como ferramenta de análise de agrupamentos. O SOM define, via treinamento não supervisionado, um mapeamento de um espaço p-dimensional contínuo para um conjunto discreto de vetores referência, ou neurônios, geralmente dispostos na forma de uma matriz. Cada neurônio tem a mesma dimensão do espaço de entrada, p, e o objetivo principal do treinamento é reduzir imensionalidade ao mesmo tempo em que tenta-se preservar, ao máximo, a topologia do espaço de entrada. O algoritmo SL-SOM (Self-Labeling SOM) foi desenvolvido com o objetivo de particionar e rotular automaticamente um SOM treinado, baseando-se no gradiente dos p componentes, cuja informação é apresentada na Umatrix. Usa-se algoritmos de processamento de imagem para segmentar a U-matrix e o resultado são regiões conectadas de neurônios codificados sob o mesmo rótulo. Tais regiões definem no espaço de atributos geometrias complexas e não paramétricas, possibilitando também a classificação de novas amostras. A extensão do SL-SOM tem por objetivo descobrir e representar subclasses. O TS-SLSOM (Tree-Structured Self-Labeling SOM) gera sub-redes para cada região rotulada de neurônios na forma de uma árvore dinâmica. Não se especifica a priori o número de sub-redes para uma dada rede, e os parâmetros de cada sub-rede são funções dos parâmetros da rede 'pai', e do subconjunto de dados que será usado para treiná-Ia. Sub-redes que não apresentam subpartições são excluídas, e o conjunto de dados referente àquela sub-rede fica representado apenas pela região rotulada de neurônios na rede 'pai'. Arranjos de neurônios do SOM de dimensões elevadas não são usados na prática por que o objetivo principal do SOM na atualidade é a visualização dos dados. Com a automação da descoberta de conhecimento e relacionamentos entre dados descritas pelo SL-SOM e TSSL- SOM, pode-se usar um arranjo dimensão igualou menor que a dimensão do espaço de entrada, e fazer com que apenas os resultados finais sejam mostrados, na forma de subgrupos de dados, o relacionamento entre os subgrupos, etc. A principal motivação para o uso do SOM p-dimensional é a manutenção da topologia que geralmente é perdida quando diminuímos a dimensionalidade via mapeamento de um espaço p-dimensional para um espaço de menor dimensão. Define-se o U-array como uma extensão da U-matrix e propõe-se métodos de análise baseados nos métodos de segmentação utilizados em redes de dimensão I ou 2. Comparações de resultados para vários conjuntos de dados são efetuados em relação ao SOM convencional, ou alguns de seus variantes, e por métodos estatísticos e heurísticos para descoberta de agrupamentos, sendo o principal deles, o método de misturas de densidades de probabilidades usando o algoritmo Expectation Maximization. As aplicações dos resultados desta tese são inúmeras. Pode-se aplicar técnicas de análise de dados em qualquer área do conhecimento humano que possa coletar informações. Com a disponibilidade crescente de instrumentação eletrônica capacitando aplicações diversas adquirirem dados e armazená-los em computadores, ou mesmo a imensa massa de dados e informações não estruturadas na internet, ferramentas como as descritas nesta tese, com certeza, farão parte de softwares em um futuro não distante / Abstract: This thesis presents extensions to the most used self-organizing neural network model, the Kohonen network (SOM), enabling its usage as an effective tool for cluster analysis. The SOM network defines, via unsupervised learning, a mapping of a continuos p-dimensional space to a set of model vectors, or neurons, usually arranged as a 2-D array. Each neuron has the same dimension of the input space, p, and the main objective is dimensionality reduction while trying to preserve as much as possible the topology of the input space. The SL-SOM (Self-Labeling SOM) algorithm was developed for automatically partitioning and labeling a trained SOM network. It uses information of the p component gradient (distances) which is presented in the U-matrix. By using image processing algorithms, the obtained results are labeled and connected regions of neurons. Each region defines, in the input space, complex and nonparametric geometries which approximately describe the shape of the clusters. Classification of new objects can be performed using the established regions and the nearest neighbor rule. An extension of the SL-SOM algorithm aims to enhance the clustering process, enabling to discover sub-clusters. The TS-SL-SOM (Tree-Structured Self-Labeling SOM) algorithm generates a child network for each labeled region of the root network, and so on. The process can be seen as generation of a dynamic tree, where each node is a whole network, and which is data-driven. It is not necessary to specify the number of sub-networks for a given network in a given height of the tree. The parameters of the child network are functions of the parameters of the father network and of the subgroup of data used to train that network. A pruning strategy cuts sub-networks (leave nodes) which do not present further partitions. High dimension output SOM networks are not frequently used because the main application of SOM is visualization of data in a form of display. With the automation of knowledge discovery and data relations by the SL-SOM and TS-SL-SOM algorithms, we can use output dimensions higher than 2 and analyze only the final results, i.e., number of clusters and their components, relationships between groups, etc. The main advantage of using high dimension output SOMs is that topology preservation is usually lost when mapping a higher input space to a lower output space. The U-array is defined as an extension of the U-matrix and methods are proposed for its segmentation in a similar fashion of those presented in the SL-SOM algorithm. The thesis also presents results of the methods for synthetic and real data sets, and some comparisons with conventional clustering approachés, such as k-means and mixtures of probability density functions with the Expectation Maximization algorithm. Applications of the methods presented in this thesis are numerous. Virtually any area which possess data could be a candidate for using some kind of mapping and thus using any of these methods. With the increasingly availability of masses of data elsewhere, in applications ranging from business to scientific tasks, or even the immense mass of unstructured data available in the internet, and decreasingly cost of memory and computers, tools as the ones presented in this thesis will be important parts of softwares in a near future / Doutorado / Doutor em Engenharia Elétrica
296

Recuperação de imagens por conteúdo baseada em realimentação de relevância e classificador por floresta de caminhos ótimos / Content-based image retrieval based on relevance feedback and optimum-path forest classifier

Silva, André Tavares da 18 August 2018 (has links)
Orientadores: Léo Pini Magalhães, Alexandre Xavier Falcão / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação / Made available in DSpace on 2018-08-18T18:42:18Z (GMT). No. of bitstreams: 1 Silva_AndreTavaresda_D.pdf: 6866624 bytes, checksum: 179040a4095c5042ee1d1b5b5f11ebfb (MD5) Previous issue date: 2011 / Resumo: Com o crescente aumento de coleções de imagens resultantes da popularização da Internet e das câmeras digitais, métodos eficientes de busca tornam-se cada vez mais necessários. Neste contexto, esta tese propõe novos métodos de recuperação de imagens por conteúdo baseados em realimentação de relevância e no classificador por floresta de caminhos ótimos (OPF - Optimum-Path Forest), sendo também a primeira vez que o classificador OPF é utilizado em conjuntos de treinamento pequenos. Esta tese denomina como guloso e planejado os dois paradigmas distintos de aprendizagem por realimentação de relevância considerando as imagens retornadas. O primeiro paradigma tenta retornar a cada iteração sempre as imagens mais relevantes para o usuário, enquanto o segundo utiliza no aprendizado as imagens consideradas mais informativas ou difíceis de classificar. São apresentados os algoritmos de realimentação de relevância baseados em OPF utilizando ambos os paradigmas com descritor único. São utilizadas também duas técnicas de combinação de descritores juntamente com os métodos de realimentação de relevância baseados em OPF para melhorar a eficácia do processo de aprendizagem. A primeira, MSPS (Multi-Scale Parameter Search), é utilizada pela primeira vez em recuperação de imagens por conteúdo, enquanto a segunda é uma técnica consolidada baseada em programação genética. Uma nova abordagem para realimentação de relevância utilizando o classificador OPF em dois níveis de interesse é também apresentada. Nesta abordagem é possível, em um nível de interesse, selecionar os pixels nas imagens, além de escolher as imagens mais relevantes a cada iteração no outro nível. Esta tese mostra que o uso do classificador OPF para recuperação de imagens por conteúdo é muito eficiente e eficaz, necessitando de poucas iterações de aprendizado para apresentar os resultados desejados aos usuários. As simulações mostram que os métodos propostos superam os métodos de referência baseados em múltiplos pontos de consulta e em máquina de vetor de suporte (SVM). Além disso, os métodos propostos de busca de imagens baseados no classificador por floresta de caminhos ótimos mostraram ser em média 52 vezes mais rápidos do que os métodos baseados em máquina de vetor de suporte / Abstract: Considering the increasing amount of image collections that result from popularization of the digital cameras and the Internet, efficient search methods are becoming increasingly necessary. In this context, this doctoral dissertation proposes new methods for content-based image retrieval based on relevance feedback and on the OPF (optimum-path forest) classifier, being also the first time that the OPF classifier is used in small training sets. This doctoral dissertation names as "greedy" and "planned" the two distinct learning paradigms for relevance feedback taking into account the returned images. The first paradigm attempts to return the images most relevant to the user at each iteration, while the second returns the images considered the most informative or difficult to be classified. The dissertation presents relevance feedback algorithms based on the OPF classifier using both paradigms with single descriptor. Two techniques for combining descriptors are also presented along with the relevance feedback methods based on OPF to improve the effectiveness of the learning process. The first one, MSPS (Multi-Scale Search Parameter), is used for the first time in content-based image retrieval and the second is a consolidated technique based on genetic programming. A new approach of relevance feedback using the OPF classifier at two levels of interest is also shown. In this approach it is possible to select the pixels in images at a level of interest and to choose the most relevant images at each iteration at another level. This dissertation shows that the use of the OPF classifier for content based image retrieval is very efficient and effective, requiring few learning iterations to produce the desired results to the users. Simulations show that the proposed methods outperform the reference methods based on multi-point query and support vector machine. Besides, the methods based on optimum-path forest have shown to be on the average 52 times faster than the SVM-based approaches / Doutorado / Engenharia de Computação / Doutor em Engenharia Elétrica
297

Detecção automática de Crateras de Impacto na superfície de Mercúrio /

Pedrosa, Miriam Maria. January 2015 (has links)
Orientador: Erivaldo Antônio da Silva / Coorientador: Pedro Miguel Berardo Duarte Pina / Banca: Álvaro Penteado Crósta / Banca: Thiago Statella / Banca: José Roberto Nogueira / Banca: Aylton Pagamisse / Resumo: Crateras de impacto são estruturas formadas pela colisão de meteoritos com a superfície de corpos planetários rochosos. O estudo de crateras de impacto é um ponto chave para o entendimento da história do sistema solar, visto que o processo de colisão está presente desde a formação dos planetas até os dias atuais. Desta forma, existem inúmeros trabalhos realizados que envolvem crateras de impacto; dentre eles estão os desenvolvidos na tentativa de realizar a detecção automática dessas feições. A maioria dos trabalhos utilizam imagens da Lua e de Marte, devido à grande quantidade de imagens disponíveis para esses dois corpos planetários. Em contrapartida, a realização desta tarefa para Mercúrio só se tornou possível há poucos anos atrás, com o envio da sonda Messenger. Por esse motivo, existem poucos trabalhos desenvolvidos na tentativa de realizar a detecção de crateras em Mercúrio. Neste sentido, este trabalho apresenta uma metodologia para detecção de crateras em Mercúrio em imagens digitais MDIS-NAC. As imagens utilizadas possuem diferentes resoluções espaciais e pertencem a três bacias da superfície de Mercúrio. A metodologia é dividida em quatro etapas principais, sendo a primeira a construção do mosaico de imagens, em seguida realiza-se a seleção de áreas candidatas a crateras, por meio de operações morfológicas e análise da forma. Posteriormente, as características das áreas candidatas são extraídas pelas máscaras Haar-like. Por fim, utiliza-se SVM (do inglês, Support Vector Machine) para classificar as áreas candidatas em crateras e não crateras... / Abstract: Impact craters are geological structures formed by the collision of a meteorite with rocky planetary surfaces. The study of impact craters is a key point in understanding the history of solar system as the collision process has been present from the planet's formation until the present day. Consequently, several works have been carried out involving impact craters. Among them, some have been developed with the aim of identifying these features automatically. However, the vast majority deal only with images from the surfaces of Mars and the Moon. This is directly related to the huge amount of image data available for these two bodies, in comparison with other surfaces. However, just a couple of years ago it became possible to carry out this work for the planet Mercury. Images of the whole of the planet's surface have been obtained only after the Messenger probe. For this reason, few attempts have been made to make automated crater detections on Mercury. This work, presents a methodology to detect impact craters on Mercury from MDISC-NAC images. The images cover three of Mercury's basins and they have different spatial resolutions. The methodology is divided into four main steps. The first consists of creating image mosaics of the areas of interest; the second of finding crater candidates on the mosaics by using morphological operation and shape analysis. Subsequently, the set of features is extracted from the candidates by a Haar-like mask... / Doutor
298

Uma implementação em VLSI para reconhecimento de padrões de imagens

Alexandrino, Josemir da Cruz 15 April 1994 (has links)
Orientador: Mario Lucio Cortes / Dissertação (mestrado) - Universidade Estadual de Campinas. Instituto de Matematica, Estatistica e Ciencia da Computação / Made available in DSpace on 2018-07-19T02:29:53Z (GMT). No. of bitstreams: 1 Alexandrino_JosemirdaCruz_M.pdf: 5295142 bytes, checksum: 30f75cfcf6e767504e09e41e4daadaa4 (MD5) Previous issue date: 1994 / Resumo: Este trabalho está organizada em duas partes. Um estudo de técnicas e arquiteturas dedicadas ao reconhecimento de padrões de imagens é abordado na primeira parte. A segunda parte apresenta uma implementação em VLSI de um sistema para o reconhecimento de imagem utilizando a arquitetura de rede neural baseada em memórias RAMs. O estudo de técnicas e arquiteturas inclui exemplos de métodos estatísticos, arquiteturas altamente paralelas e redes neurais. Os métodos estatísticos evidenciam a ineficiência das máquinas monoprocessadas convencionais de propósito geral no reconhecimento de padrões, especialmente nas aplicações de tempo real. Arquiteturas multiprocessadas, especificamente concebidas para esta tarefa, apresentam um desempenho elevado mas não conseguem manipular dados como aqueles encontradas nas imagens obtidas na prática, as quais geralmente apresentam algum conteúdo de ruído. Redes neurais são completamente diferentes de arquiteturas baseadas em processadores programáveis. A execução de um programa é substituído pelo treinamento da rede através de um conjunto apropriado de estímulos. Sua capacidade de generalização, isto é, de fornecer respostas adequadas à estímulos para os quais a rede não foi treinada, possibilita o processamento de dados com algum conteúdo de ruído. Elas foram concebidas a partir da observação dos sistemas nervosos naturais e seu funcionamento. Os neurônios podem ser modelados através de computadores convencionais ou dispositivos eletrônicos. A modelagem direta em dispositivos eletrônicos é mais eficiente e pode ser implementada em VLSI. O sistema proposto é constituído de um cartão para IBM PC composto de uma PLD de controle e um número variável de ASICs que implementam as redes neurais. Os ASICs são agrupados em uma matriz, que pode ser dimensionada de acordo com as necessidades da aplicação, com capacidade máxima de 64 chips. As alternativas de projeto relevantes são apresentadas juntamente com a descrição do sistema e seu princípio de funcionamento, o qual foi validado através de um programa simulador escrito em Pascal. Os resultados de simulação obtidos com esse programa validaram o princípio de funcionamento e possibilitaram o dimensionamento de estruturas tais como barramentos e RAMs. Os aspectos de arquitetura do sistema e dos ASICs foram modelados e validados sobre uma descrição em alto nível escrita em VHDL. O uso de metodologias e ferramentas de EDA apropriadas, onde o projeto é dividido em vários níveis hierárquicos com diferentes graus de abstração possibilitou um maior controle do desenvolvimento do projeto, reduzindo as possibilidades de erro de projeto e reduzindo o tempo para sua realização. A arquitetura permite uma implementação física bastante elegante e regular do ASIC, realizada em CMOS 1,2 um. A dissertação é concluída com um resumo dos trabalhos, extensões futuras e algumas considerações a respeito das características e limitações do sistema proposto. / Abstract: This work is organized in two parts. A study of specific architectures and techniques for image pattern recognition is presented in the first part. The second part presents a VLSI implementation for a image recognition system using the RAM-based neural network architecture. The study of specific architecture and techniques includes examples of statistical methods, highly parallel architectures and neural networks. The statistical methods show the inefficiency of conventional general purpose single-CPU machines in pattem recognition, specially in real time applications. Multiprocessor systems, specifically designed for this task, present high performance but are not well fitted to handle data with a reasonable noise content, such as those found in real world images. Neural networks are entirely dilferent from program based processor architectures. The function executed by processor programming is replaced by training of the neural net with a convenient set of stimulus. Their generalization capability to produce appropriate answers for stimulus out of training set facilitates noisy data processing. Neural networks emulate the nervous systems functionality by modeling their structures. The neurons can be modeled by simulation in conventional computer or by electronic devices. Straight modeling by electronic devices is more efficient and can be implemented in VLSI. The proposed system consists of a PCB composed by a control PLD and a variable number of ASICs to implement the neural network. The ASICs are grouped into an array that can be sized according to the type of application, up to 64 chips. The relevant design altematives are presented along with the system description and its functional principle, which was vali, dated by a simulator program written in Pascal. The simulation results obtained with this program validated the functional principIe and made possible the correct sizing of structures such as bus and RAMs. The system and ASICs architectural aspects were modeled and validated using a high level description written in VHDL. The use of adequate EDA tools and methodologies and the fact that the project was organized hierarchically with dilferent levels of abstraction, allowed a good control of project development, reducing the chances of design error and shortening the development time. The architecture allows a very regular and elegant physical implementation for the ASIC, designed in 1.2 um CMOS. The dissertation concludes with a summary presenting considerations about the proposed system advantages and limitations. / Mestrado / Mestre em Ciência da Computação
299

Aplicação de técnicas de reconhecimento de padrões usando os descritores estruturais de proteínas da base de dados do software STING para discriminação do sítio catalítico de enzimas / Pattern recognition using structural protein descriptors from STING database to discriminate the active site of enzymes

Salim, José Augusto, 1986- 27 August 2018 (has links)
Orientadores: Fernando José Von Zuben, Goran Neshich / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação / Made available in DSpace on 2018-08-27T03:11:20Z (GMT). No. of bitstreams: 1 Salim_JoseAugusto_M.pdf: 12514135 bytes, checksum: e429e34406344ef77064e5f5e46194be (MD5) Previous issue date: 2015 / Resumo: As enzimas têm sua função determinada essencialmente por alguns resíduos específicos, denominados resíduos de aminoácidos catalíticos. A função de uma determinada proteína é mantida por milhares de anos de pressão seletiva que ocasionam a preservação de uma estrutura composta por padrões físicos, químicos e estruturais necessários para mantê-la. É frequente observar que enzimas quaisquer presentes em organismos distantemente relacionados exerçam exatamente a mesma função biológica e possuam o mesmo conjunto de resíduos de aminoácidos catalíticos, apesar de possuírem sequências proteicas muito dissimilares. Estes padrões que se conservaram por anos de evolução para manter a função das enzimas têm sido bastante estudados na literatura. Assim, o presente trabalho buscou identificar, dentre os descritores estruturais de proteínas (disponíveis na base de dados da plataforma Blue Star STING) aqueles de maior relevância para discriminar os resíduos de aminoácidos catalíticos dos não catalíticos, por meio do nanoambiente no qual estes se inserem. Buscou-se por modelos classificadores capazes de favorecerem uma interpretação de suas escolhas através de regras na forma SE-ENTÃO, compostas por descritores e seus respectivos valores. Regras foram extraídas para conjuntos de enzimas responsáveis pela catálise da mesma reação enzimática (mesma sub-subclasse EC), de forma a caracterizar o nanoambiente comum aos seus resíduos de aminoácidos catalíticos. Primeiramente, foram considerados apenas descritores estruturais de proteínas, ou seja, excluem-se descritores de conservação de estrutura primária. Esta opção foi feita com base no fato de a conservação de um determinado resíduo em uma determinada posição ser uma consequência (e não causa) de sua crucial função para a atividade de uma enzima. Buscou-se, portanto, compreender a fundo o "por que" de um resíduo ser conservado, utilizando uma "linguagem" puramente estrutural. As doze mais representativas sub-subclasses EC foram escolhidas e regras foram extraídas de forma a caracterizar os resíduos de aminoácido catalíticos de seus membros. Os resultados obtidos variam de acordo com o número de amostras catalíticas disponíveis, sendo as classes com maior número de amostras as que resultaram em regras com maior capacidade de generalização. Ainda que a caracterização dos resíduos de aminoácidos catalíticos possa ser feita apenas com os dados disponíveis, a predição de novas amostras introduz diversos desafios discutidos neste trabalho. Diferentes técnicas de amostragem e seleção de atributos foram estudadas e o impacto de tais técnicas no treinamento é também discutido. Novos descritores estruturais de proteína foram adicionados ao Blue Star STING, assim como foi feito o desenvolvimento de uma biblioteca de programação para facilitar e agilizar a extensão do conjunto de descritores do Blue Star STING / Abstract: The function of enzymes are determined by specific residues, called catalytic amino acids residues. The protein function is maintained for thousands of years of selective pressure which preserves in its structure many physical-chemical and structural patterns. Frequently, enzymes from distinct organisms exert exactly the same biological function due to similar catalytic amino acid residues, even with low sequence similarities. The majority of catalytic amino acid residues prediction methods use sequence conservation features to provide classification. Seeking to understand these conserved patterns in enzyme structures, that even after years of evolution perform the same biological function, the present work searches to identify which protein structural descriptors (available in Blue Star STING platform) are capable of discriminating the amino acid catalytic residues from non-catalytic residues by means of their nanoenvironments properties. Therefore, we studied the use of classification methods available in the literature and STING structural protein descriptors to predict amino acid catalytic residues with no dependency of homologous enzymes. Considering methods capable of extracting IF-THEN rules composed of descriptors and their respective values, sets of rules were built to characterize the amino acid catalytic residues of enzymes catalyzing the same chemical reaction (same EC sub-subclass). Furthermore, it was considered only structural protein descriptors, i.e. no sequence conservation descriptor were considered. The conservation of certain amino acid in a given position is a consequence (not cause) of its crucial function for the enzyme activity. Therefore, the main purpose was to understand in depth the reason why a residue is preserved, employing a purely structural language. Twelve most representative EC sub-subclasses were considered and rules were extracted to characterize the amino acid catalytic residues of their members. The results vary as the number of available structures for each sub-subclass increases. Once it is possible to characterize the amino acid residues of a set of enzymes catalyzing the same chemical reaction, the prediction of amino acid residues in new enzymes faces several challenges discussed in this work, been the major problem the lack of data for amino acid catalytic residues in available databases. Many different techniques as sampling and feature selection methods are employed to alleviate the imbalance of data, and their impact on training are discussed. As a result, we also incorporate new structural protein descriptors to Blue Star STING and developed a new programming library to allow faster and easier extension of the Blue Star STING descriptors set / Mestrado / Engenharia de Computação / Mestre em Engenharia Elétrica
300

A fast and robust negative mining approach for user enrollment in face recognition systems = Uma abordagem eficiente e robusta de mineração de negativos para cadastramento de novos usuários em sistemas de reconhecimento facial / Uma abordagem eficiente e robusta de mineração de negativos para cadastramento de novos usuários em sistemas de reconhecimento facial

Martins, Samuel Botter, 1990- 27 August 2018 (has links)
Orientadores: Alexandre Xavier Falcão, Giovani Chiachia / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-27T14:41:07Z (GMT). No. of bitstreams: 1 Martins_SamuelBotter_M.pdf: 4782261 bytes, checksum: 63cd58756e3fe70ffe625d42974b1a78 (MD5) Previous issue date: 2015 / Resumo: Sistemas automáticos de reconhecimento de faces tem atraído a atenção da indústria e da academia, devido à gama de possíveis aplicações, tais como vigilância, controle de acesso, etc. O recente progresso em tais sistemas motiva o uso de técnicas de aprendizado em profundidade e classificadores específicos para cada usuário em cenários de operação não-controlado, que apresentam variações consideráveis em pose, iluminação, etc. Sistemas automáticos de reconhecimento de faces possibilitam construir bases de imagens anotadas por meio do processo de cadastramento de novos usuários. Porém, à medida que as bases de dados crescem, torna-se crucial reduzir o número de amostras negativas usadas para treinar classificadores específicos para cada usuário, devido às limitações de processamento e tempo de resposta. Tal processo de aprendizado discriminativo durante o cadastramento de novos indivíduos tem implicações no projeto de sistemas de reconhecimento de faces. Apesar deste processo poder aumentar o desempenho do reconhecimento, ele também pode afetar a velocidade do cadastramento, prejudicando, assim, a experiência do usuário. Neste cenário, é importante selecionar as amostras mais informativas buscando maximizar o desempenho do classificador. Este trabalho resolve tal problema propondo um método de aprendizado discriminativo durante o cadastramento de usuários com o objetivo de não afetar a velocidade e a confiabilidade do processo. Nossa solução combina representações de alta dimensão com um algoritmo que rapidamente minera imagens faciais negativas de um conjunto de minerção grande para assim construir um classificador específico para cada usuário, baseado em máquinas de vetores de suporte. O algoritmo mostrou ser robusto em construir pequenos e eficazes conjuntos de treinamento com as amostras negativas mais informativas para cada indivíduo. Avaliamos nosso método em duas bases contendo imagens de faces obtidas no cenário de operação não-controlado, chamadas PubFig83 e Mobio, e mostramos que nossa abordagem é capaz de alcançar um desempenho superior em tempos interativos, quando comparada com outras cinco abordagens consideradas. Os resultados indicam que o nosso método tem potencial para ser explorado pela indústria com mínimo impacto na experiência do usuário. Além disso, o algoritmo é independente de aplicação, podendo ser uma contribuição relevante para sistemas biométricos que visam manter a robustez à medida que o número de usuários aumenta / Abstract: Automatic face recognition has attracted considerable attention from the industry and academy due to its wide range of applications, such as video surveillance, access control, online transactions, suspect identification, etc. The recent progress in face recognition systems motivates the use of deep learning techniques and user-specific face representation and classification models for unconstrained scenarios, which present considerable variations in pose, face appearance, illumination, etc. Automatic face recognition systems make possible to build annotated face datasets through user enrollment. However, as the face datasets grow, it becomes crucial to reduce the number of negative samples used to train user-specific classifiers, due to processing constraints and responsiveness. Such a discriminative learning process during the enrollment of new individuals has implications in the design of face recognition systems. Even though it might increase recognition performance, it may affect the speed of the enrollment, which in turn may affect the user experience. In this scenario, it is important to select the most informative samples in order to maximize the performance of the classifier. This work addresses this problem by proposing a discriminative learning method during user enrollment with the challenges of not negatively affecting the speed and reliability of the process, and so the user experience. Our solution combines high-dimensional representations from deep learning with an algorithm for rapidly mining negative face images from a large mining set to build an effective classification model based on linear support vector machines for each specific user. The negative mining algorithm has shown to be robust in building small and effective training sets with the most informative negative samples for each given individual. We evaluate our approach on two unconstrained datasets, namely PubFig83 and Mobio, and show that it is able to attain superior performance, within interactive response times, as compared to five other baseline approaches that use the same classification scheme. The results indicate that our approach has potential to be exploited by the industry with minimum impact to the user experience. Moreover, the algorithm is application-independent. Hence, it may be a relevant contribution for biometric systems that aim to maintain robustness as the number of users increases / Mestrado / Ciência da Computação / Mestre em Ciência da Computação

Page generated in 0.0909 seconds