• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 332
  • 27
  • 9
  • 2
  • Tagged with
  • 381
  • 381
  • 348
  • 342
  • 69
  • 57
  • 55
  • 53
  • 52
  • 46
  • 46
  • 45
  • 44
  • 42
  • 42
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
311

Filtragem robusta de SNPs utilizando redes neurais em DNA genômico completo

Silva, Bruno Zonovelli da 25 June 2013 (has links)
Submitted by Renata Lopes (renatasil82@gmail.com) on 2017-02-24T15:10:56Z No. of bitstreams: 1 brunozonovellidasilva.pdf: 11306730 bytes, checksum: d7a7b13a1620f32d885d6b1e8852ae2b (MD5) / Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2017-02-24T15:40:35Z (GMT) No. of bitstreams: 1 brunozonovellidasilva.pdf: 11306730 bytes, checksum: d7a7b13a1620f32d885d6b1e8852ae2b (MD5) / Made available in DSpace on 2017-02-24T15:40:35Z (GMT). No. of bitstreams: 1 brunozonovellidasilva.pdf: 11306730 bytes, checksum: d7a7b13a1620f32d885d6b1e8852ae2b (MD5) Previous issue date: 2013-06-25 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Com o crescente avanço das plataformas de sequenciamento genômico, surge a necessidade de modelos computacionais capazes de analisar, de forma eficaz, o grande volume de dados disponibilizados. Uma das muitas complexidades, variações e particularidades de um genoma são os polimorfismos de base única (single nucleotide polymorphisms - SNPs), que podem ser encontrados no genoma de indivíduos isoladamente ou em grupos de indivíduos de alguma população, sendo originados a partir de inserções, remoções ou substituições de bases. Alterações de um único nucleotídeo, como no caso de SNPs, podem modificar a produção de uma determinada proteína. O conjunto de tais alterações tende a provocar variações nas características dos indivíduos da espécie, que podem gerar alterações funcionais ou fenotípicas, que, por sua vez, implicam, geralmente, em consequências evolutivas nos indivíduos em que os SNPs se manifestam. Entre os vários desafios em bioinformática, encontram-se a descoberta e filtragem de SNPs em DNA genômico, etapas de relevância no pós-processamento da montagem de um genoma. Este trabalho propõe e desenvolve um método computacional capaz de filtrar SNPs em DNA genômico completo, utilizando genomas remontados a partir de sequências oriundas de plataformas de nova geração. O modelo computacional desenvolvido baseia-se em técnicas de aprendizado de máquina e inteligência computacional, com o objetivo de obter um filtro eficiente, capaz de classificar SNPs no genoma de um indivíduo, independente da plataforma de sequenciamento utilizada. / With the growing advances in genomic sequencing platforms, new developments on computational models are crucial to analyze, effectively, the large volume of data available. One of the main complexities, variations and peculiarities of a genome are single nucleotide polymorphisms (SNPs). The SNPs, which can be found in the genome of isolated individuals or groups of individuals of a specific population, are originated from inserts, removals or substitutions of bases. Single nucleotide variation, such as SNPs, can modify the production of a protein. Combination of all such modifications tend to determine variations on individuals characteristics of the specie. Thus, this phenomenon usually produces functional or phenotypic changes which, in turn, can result in evolutionary consequences for individuals with expressed SNPs. Among the numerous challenges in bioinformatics, the discovery and filtering of SNPs in genomic DNA is considered an important steps of the genome assembling post-processing. This dissertation has proposed and developed a computational method able to filtering SNPs in genome, using the genome assembled from sequences obtained by new generation platforms. The computational model presented is based on machine learning and computational intelligence techniques, aiming to obtain an efficient filter to sort SNPs in the genome of an individual, regardless of the sequencing platform adopted.
312

Uma abordagem de predição estruturada baseada no modelo perceptron

Coelho, Maurício Archanjo Nunes 25 June 2015 (has links)
Submitted by Renata Lopes (renatasil82@gmail.com) on 2017-03-06T17:58:43Z No. of bitstreams: 1 mauricioarchanjonunescoelho.pdf: 10124655 bytes, checksum: 549fa53eba76e81b76ddcbce12c97e55 (MD5) / Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2017-03-06T20:26:43Z (GMT) No. of bitstreams: 1 mauricioarchanjonunescoelho.pdf: 10124655 bytes, checksum: 549fa53eba76e81b76ddcbce12c97e55 (MD5) / Made available in DSpace on 2017-03-06T20:26:44Z (GMT). No. of bitstreams: 1 mauricioarchanjonunescoelho.pdf: 10124655 bytes, checksum: 549fa53eba76e81b76ddcbce12c97e55 (MD5) Previous issue date: 2015-06-25 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / A teoria sobre aprendizado supervisionado tem avançado significativamente nas últimas décadas. Diversos métodos são largamente utilizados para resoluções dos mais variados problemas, citando alguns: sistemas especialistas para obter respostas to tipo verdadeiro/ falso, o modelo Perceptron para separação de classes, Máquina de Vetores Suportes (SVMs) e o Algoritmo de Margem Incremental (IMA) no intuito de aumentar a margem de separação, suas versões multi-classe, bem como as redes neurais artificiais, que apresentam possibilidades de entradas relativamente complexas. Porém, como resolver tarefas que exigem respostas tão complexas quanto as perguntas? Tais respostas podem consistir em várias decisões inter-relacionadas que devem ser ponderadas uma a uma para se chegar a uma solução satisfatória e globalmente consistente. Será visto no decorrer do trabalho que existem problemas de relevante interesse que apresentam estes requisitos. Uma questão que naturalmente surge é a necessidade de se lidar com a explosão combinatória das possíveis soluções. Uma alternativa encontrada apresenta-se através da construção de modelos que compactam e capturam determinadas propriedades estruturais do problema: correlações sequenciais, restrições temporais, espaciais, etc. Tais modelos, chamados de estruturados, incluem, entre outros, modelos gráficos, tais como redes de Markov e problemas de otimização combinatória, como matchings ponderados, cortes de grafos e agrupamentos de dados com padrões de similaridade e correlação. Este trabalho formula, apresenta e discute estratégias on-line eficientes para predição estruturada baseadas no princípio de separação de classes derivados do modelo Perceptron e define um conjunto de algoritmos de aprendizado supervisionado eficientes quando comparados com outras abordagens. São também realizadas e descritas duas aplicações experimentais a saber: inferência dos custos das diversas características relevantes para a realização de buscas em mapas variados e a inferência dos parâmetros geradores dos grafos de Markov. Estas aplicações têm caráter prático, enfatizando a importância da abordagem proposta. / The theory of supervised learning has significantly advanced in recent decades. Several methods are widely used for solutions of many problems, such as expert systems for answers to true/false, Support Vector Machine (SVM) and Incremental Margin Algorithm (IMA). In order to increase the margin of separation, as well as its multi-class versions, in addition to the artificial neural networks which allow complex input data. But how to solve tasks that require answers as complex as the questions? Such responses may consist of several interrelated decisions to be considered one by one to arrive at a satisfactory and globally consistent solution. Will be seen throughout the thesis, that there are problems of relevant interest represented by these requirements. One question that naturally arises is the need to deal with the exponential explosion of possible answers. As a alternative, we have found through the construction of models that compress and capture certain structural properties of the problem: sequential correlations, temporal constraints, space, etc. These structured models include, among others, graphical models, such as Markov networks and combinatorial optimization problems, such as weighted matchings, graph cuts and data clusters with similarity and correlation patterns. This thesis formulates, presents and discusses efficient online strategies for structured prediction based on the principle of separation of classes, derived from the Perceptron and defines a set of efficient supervised learning algorithms compared to other approaches. Also are performed and described two experimental applications: the costs prediction of relevant features on maps and the prediction of the probabilistic parameters for the generating Markov graphs. These applications emphasize the importance of the proposed approach.
313

Identificação da vazão de gás de uma bomba centrífuga em regime de escoamento multifásico através de dados experimentais : Identification of the gas flow of an electric submersible pump under multiphase flow thou experimental data / Identification of the gas flow of an electric submersible pump under multiphase flow thou experimental data

Martinez Ricardo, Diana Marcela, 1986- 24 August 2018 (has links)
Orientador: Janito Vaqueiro Ferreira / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Mecânica / Made available in DSpace on 2018-08-24T20:08:14Z (GMT). No. of bitstreams: 1 MartinezRicardo_DianaMarcela_M.pdf: 3485991 bytes, checksum: 9bd64ce80b2e1c25ed98644d4f52fd64 (MD5) Previous issue date: 2014 / Resumo: Este trabalho tem como objetivo desenvolver um processo de identificação da vazão de gás em um dos equipamentos usados na indústria petrolífera, às bombas centrífugas submersas (BCS) em regime de escoamento multifásico. Estas bombas apresentam falhas frequentes prematuras quando a vazão de gás é alta, as quais ocorrem por falta de informação do tipo de escoamento bifásico presente na bomba no tempo de operação. Por isto estudos de identificação experimental são requeridos nesta área. Neste contexto a presente pesquisa tem seu foco na obtenção de modelos mediante dados experimentais, recompilados diretamente da resposta do sistema que descrevem o comportamento da vazão de gás na planta de interesse, como: vibração, vazão, elevação entre outros. Estes modelos estão baseados na identificação não paramétrica e no algoritmo de aprendizagem de Máquina de Vetores de Suporte (SVM), onde os parâmetros ocultos da máquina de aprendizagem serão obtidos mediante algoritmos genéticos, visando obter modelos mais representativos / Abstract: This work develops a process to identify the flow of gas in one of the equipment used in the oil industry, the electric submersible pump (EPS) under multiphase flow. These pumps feature frequent premature failures when the gas flow is high. That occurs due to lack of information on the type of two ¿ phase flow in the pump in operation time. Experimental studies for this identification are required in this area. In this context, the present research focuses on obtaining models by experimental data collected directly from the system response which describes the behavior of the gas flow on the system of interest such as: vibration, fluid, elevation etc. These models are based on nonparametric identification and in learning algorithm support vector machine (SVM), where the hidden parameters of the learning machine will be obtained by genetic algorithms in order to obtain more representative models / Mestrado / Mecanica dos Sólidos e Projeto Mecanico / Mestra em Engenharia Mecânica
314

Validation of structural heterogeneity in Cryo-EM datasets by cluster ensembles = Validação de heterogeneidade estrutural em dados de Crio-ME por comitês de agrupadores / Validação de heterogeneidade estrutural em dados de Crio-ME por comitês de agrupadores

Righetto, Ricardo Diogo, 1986- 08 August 2014 (has links)
Orientadores: Fernando José Von Zuben, Rodrigo Villares Portugal / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação / Made available in DSpace on 2018-08-25T22:36:38Z (GMT). No. of bitstreams: 1 Righetto_RicardoDiogo_M.pdf: 5898819 bytes, checksum: c98b9e2b61390aa847a4a6040d3f550b (MD5) Previous issue date: 2014 / Resumo: Análise de Partículas Isoladas é uma técnica que permite o estudo da estrutura tridimensional de proteínas e outros complexos macromoleculares de interesse biológico. Seus dados primários consistem em imagens de microscopia eletrônica de transmissão de múltiplas cópias da molécula em orientações aleatórias. Tais imagens são bastante ruidosas devido à baixa dose de elétrons utilizada. Reconstruções 3D podem ser obtidas combinando-se muitas imagens de partículas em orientações similares e estimando seus ângulos relativos. Entretanto, estados conformacionais heterogêneos frequentemente coexistem na amostra, porque os complexos moleculares podem ser flexíveis e também interagir com outras partículas. Heterogeneidade representa um desafio na reconstrução de modelos 3D confiáveis e degrada a resolução dos mesmos. Entre os algoritmos mais populares usados para classificação estrutural estão o agrupamento por k-médias, agrupamento hierárquico, mapas autoorganizáveis e estimadores de máxima verossimilhança. Tais abordagens estão geralmente entrelaçadas à reconstrução dos modelos 3D. No entanto, trabalhos recentes indicam ser possível inferir informações a respeito da estrutura das moléculas diretamente do conjunto de projeções 2D. Dentre estas descobertas, está a relação entre a variabilidade estrutural e manifolds em um espaço de atributos multidimensional. Esta dissertação investiga se um comitê de algoritmos de não-supervisionados é capaz de separar tais "manifolds conformacionais". Métodos de "consenso" tendem a fornecer classificação mais precisa e podem alcançar performance satisfatória em uma ampla gama de conjuntos de dados, se comparados a algoritmos individuais. Nós investigamos o comportamento de seis algoritmos de agrupamento, tanto individualmente quanto combinados em comitês, para a tarefa de classificação de heterogeneidade conformacional. A abordagem proposta foi testada em conjuntos sintéticos e reais contendo misturas de imagens de projeção da proteína Mm-cpn nos estados "aberto" e "fechado". Demonstra-se que comitês de agrupadores podem fornecer informações úteis na validação de particionamentos estruturais independetemente de algoritmos de reconstrução 3D / Abstract: Single Particle Analysis is a technique that allows the study of the three-dimensional structure of proteins and other macromolecular assemblies of biological interest. Its primary data consists of transmission electron microscopy images from multiple copies of the molecule in random orientations. Such images are very noisy due to the low electron dose employed. Reconstruction of the macromolecule can be obtained by averaging many images of particles in similar orientations and estimating their relative angles. However, heterogeneous conformational states often co-exist in the sample, because the molecular complexes can be flexible and may also interact with other particles. Heterogeneity poses a challenge to the reconstruction of reliable 3D models and degrades their resolution. Among the most popular algorithms used for structural classification are k-means clustering, hierarchical clustering, self-organizing maps and maximum-likelihood estimators. Such approaches are usually interlaced with the reconstructions of the 3D models. Nevertheless, recent works indicate that it is possible to infer information about the structure of the molecules directly from the dataset of 2D projections. Among these findings is the relationship between structural variability and manifolds in a multidimensional feature space. This dissertation investigates whether an ensemble of unsupervised classification algorithms is able to separate these "conformational manifolds". Ensemble or "consensus" methods tend to provide more accurate classification and may achieve satisfactory performance across a wide range of datasets, when compared with individual algorithms. We investigate the behavior of six clustering algorithms both individually and combined in ensembles for the task of structural heterogeneity classification. The approach was tested on synthetic and real datasets containing a mixture of images from the Mm-cpn chaperonin in the "open" and "closed" states. It is shown that cluster ensembles can provide useful information in validating the structural partitionings independently of 3D reconstruction methods / Mestrado / Engenharia de Computação / Mestre em Engenharia Elétrica
315

Anticipation in multiple criteria decision-making under uncertainty = Antecipação na tomada de decisão com múltiplos critérios sob incerteza / Antecipação na tomada de decisão com múltiplos critérios sob incerteza

Azevedo, Carlos Renato Belo, 1984- 26 August 2018 (has links)
Orientador: Fernando José Von Zuben / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação / Made available in DSpace on 2018-08-26T06:49:07Z (GMT). No. of bitstreams: 1 Azevedo_CarlosRenatoBelo_D.pdf: 3449858 bytes, checksum: 7a1811aa772f1ae996e8851c60627b7c (MD5) Previous issue date: 2012 / Resumo: A presença de incerteza em resultados futuros pode levar a indecisões em processos de escolha, especialmente ao elicitar as importâncias relativas de múltiplos critérios de decisão e de desempenhos de curto vs. longo prazo. Algumas decisões, no entanto, devem ser tomadas sob informação incompleta, o que pode resultar em ações precipitadas com consequências imprevisíveis. Quando uma solução deve ser selecionada sob vários pontos de vista conflitantes para operar em ambientes ruidosos e variantes no tempo, implementar alternativas provisórias flexíveis pode ser fundamental para contornar a falta de informação completa, mantendo opções futuras em aberto. A engenharia antecipatória pode então ser considerada como a estratégia de conceber soluções flexíveis as quais permitem aos tomadores de decisão responder de forma robusta a cenários imprevisíveis. Essa estratégia pode, assim, mitigar os riscos de, sem intenção, se comprometer fortemente a alternativas incertas, ao mesmo tempo em que aumenta a adaptabilidade às mudanças futuras. Nesta tese, os papéis da antecipação e da flexibilidade na automação de processos de tomada de decisão sequencial com múltiplos critérios sob incerteza é investigado. O dilema de atribuir importâncias relativas aos critérios de decisão e a recompensas imediatas sob informação incompleta é então tratado pela antecipação autônoma de decisões flexíveis capazes de preservar ao máximo a diversidade de escolhas futuras. Uma metodologia de aprendizagem antecipatória on-line é então proposta para melhorar a variedade e qualidade dos conjuntos futuros de soluções de trade-off. Esse objetivo é alcançado por meio da previsão de conjuntos de máximo hipervolume esperado, para a qual as capacidades de antecipação de metaheurísticas multi-objetivo são incrementadas com rastreamento bayesiano em ambos os espaços de busca e dos objetivos. A metodologia foi aplicada para a obtenção de decisões de investimento, as quais levaram a melhoras significativas do hipervolume futuro de conjuntos de carteiras financeiras de trade-off avaliadas com dados de ações fora da amostra de treino, quando comparada a uma estratégia míope. Além disso, a tomada de decisões flexíveis para o rebalanceamento de carteiras foi confirmada como uma estratégia significativamente melhor do que a de escolher aleatoriamente uma decisão de investimento a partir da fronteira estocástica eficiente evoluída, em todos os mercados artificiais e reais testados. Finalmente, os resultados sugerem que a antecipação de opções flexíveis levou a composições de carteiras que se mostraram significativamente correlacionadas com as melhorias observadas no hipervolume futuro esperado, avaliado com dados fora das amostras de treino / Abstract: The presence of uncertainty in future outcomes can lead to indecision in choice processes, especially when eliciting the relative importances of multiple decision criteria and of long-term vs. near-term performance. Some decisions, however, must be taken under incomplete information, what may result in precipitated actions with unforeseen consequences. When a solution must be selected under multiple conflicting views for operating in time-varying and noisy environments, implementing flexible provisional alternatives can be critical to circumvent the lack of complete information by keeping future options open. Anticipatory engineering can be then regarded as the strategy of designing flexible solutions that enable decision makers to respond robustly to unpredictable scenarios. This strategy can thus mitigate the risks of strong unintended commitments to uncertain alternatives, while increasing adaptability to future changes. In this thesis, the roles of anticipation and of flexibility on automating sequential multiple criteria decision-making processes under uncertainty are investigated. The dilemma of assigning relative importances to decision criteria and to immediate rewards under incomplete information is then handled by autonomously anticipating flexible decisions predicted to maximally preserve diversity of future choices. An online anticipatory learning methodology is then proposed for improving the range and quality of future trade-off solution sets. This goal is achieved by predicting maximal expected hypervolume sets, for which the anticipation capabilities of multi-objective metaheuristics are augmented with Bayesian tracking in both the objective and search spaces. The methodology has been applied for obtaining investment decisions that are shown to significantly improve the future hypervolume of trade-off financial portfolios for out-of-sample stock data, when compared to a myopic strategy. Moreover, implementing flexible portfolio rebalancing decisions was confirmed as a significantly better strategy than to randomly choosing an investment decision from the evolved stochastic efficient frontier in all tested artificial and real-world markets. Finally, the results suggest that anticipating flexible choices has lead to portfolio compositions that are significantly correlated with the observed improvements in out-of-sample future expected hypervolume / Doutorado / Engenharia de Computação / Doutor em Engenharia Elétrica
316

Novas propostas e aplicações de redes neurais com estados de eco / New proposals and applications of echo state networks

Boccato, Levy, 1986- 07 April 2013 (has links)
Orientador: Romis Ribeiro de Faissol Attux / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação / Made available in DSpace on 2018-08-22T21:42:43Z (GMT). No. of bitstreams: 1 Boccato_Levy_D.pdf: 9602973 bytes, checksum: 0bfc5a3c46d2a9041890600ab877144c (MD5) Previous issue date: 2013 / Resumo: As redes neurais com estados de eco (em inglês, echo state networks, ESNs) são estruturas recorrentes capazes de aliar processamento dinâmico a um processo de treinamento relativamente simples, o qual se resume à adaptação dos coeficientes do combinador linear da saída no sentido de mínimo erro quadrático médio (em inglês, mean squared error, MSE), enquanto os pesos das conexões no reservatório de dinâmicas são ajustados de maneira antecipada e permanecem fixos. A presente tese trata dos principais elementos que caracterizam as ESNs e propõe: (i) uma unificação entre as abordagens de computação com reservatórios, como as ESNs e as liquid state machines (LSMs), e as extreme learning machines (ELMs), sob o termo geral de máquinas desorganizadas, o qual estabelece uma conexão com as pioneiras idéias conexionistas de Alan Mathison Turing; (ii) uma nova arquitetura de ESN, cuja camada de saída é composta por um filtro de Volterra e por um estágio de compressão baseado em Análise de Componentes Principais (em inglês, Principal Component Analysis, PCA); (iii) o uso de critérios de aprendizado baseados em teoria da informação e em normas Lp em lugar do critério MSE para a adaptação dos parâmetros da camada de saída de ESNs; e (iv) uma estratégia não-supervisionada de projeto da camada recorrente de ESNs baseada em interações laterais, modeladas segundo a função chapéu mexicano, e na auto-organização dos pesos de entrada. As propostas elaboradas neste trabalho são analisadas através de simulações no contexto de diferentes problemas de processamento da informação, como equalização de canais de comunicação, separação de fontes e predição de séries temporais / Abstract: Echo state networks (ESNs) are recurrent structures capable of allying dynamic processing to a relatively simple training process, which amounts to adapting the coefficients of the linear combiner at the output in the minimum mean squared error (MSE) sense, while the connection weights in the dynamical reservoir are adjusted in advance and remain fixed. The present thesis deals with the main elements that characterize ESNs and proposes: (i ) a unification between reservoir computing approaches, such as ESNs and liquid state machines (LSMs), and extreme learning machines (ELMs), under the general term of unorganized machines, which establishes a connection with the pioneering connectionist ideas of Alan Mathison Turing; (ii ) a novel ESN architecture whose output layer is composed of a Volterra filter and of a compression stage based on Principal Component Analysis (PCA); (iii ) the use of information-theoretic learning criteria and those based on Lp norms instead of the MSE criterion for the adaptation of the parameters of the ESN output layer; and (iv) an unsupervised strategy for designing the recurrent layer of ESNs based on lateral interactions, modeled according to the mexican hat function, and on the self-organization of the input weights. The proposals developed in this work are analyzed through simulations in the context of different information processing problems, such as channel equalization, source separation and time series prediction / Doutorado / Engenharia de Computação / Doutor em Engenharia Elétrica
317

Learning person-specific face representations = Aprendendo representações específicas para a face de cada pessoa / Aprendendo representações específicas para a face de cada pessoa

Chiachia, Giovani, 1981- 23 August 2018 (has links)
Orientadores: Alexandre Xavier Falcão, Anderson de Rezende Rocha / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-23T15:41:33Z (GMT). No. of bitstreams: 1 Chiachia_Giovani_D.pdf: 4376963 bytes, checksum: 8f7d18d591f2a5d943313d89416f96d4 (MD5) Previous issue date: 2013 / Resumo: Os seres humanos são especialistas natos em reconhecimento de faces, com habilidades que excedem em muito as dos métodos automatizados vigentes, especialmente em cenários não controlados, onde não há a necessidade de colaboração por parte do indivíduo sendo reconhecido. No entanto, uma característica marcante do reconhecimento de face humano é que nós somos substancialmente melhores no reconhecimento de faces familiares, provavelmente porque somos capazes de consolidar uma grande quantidade de experiência prévia com a aparência de certo indivíduo e de fazer uso efetivo dessa experiência para nos ajudar no reconhecimento futuro. De fato, pesquisadores em psicologia têm até mesmo sugeridos que a representação interna que fazemos das faces pode ser parcialmente adaptada ou otimizada para rostos familiares. Enquanto isso, a situação análoga no reconhecimento facial automatizado | onde um grande número de exemplos de treinamento de um indivíduo está disponível | tem sido muito pouco explorada, apesar da crescente relevância dessa abordagem na era das mídias sociais. Inspirados nessas observações, nesta tese propomos uma abordagem em que a representação da face de cada pessoa é explicitamente adaptada e realçada com o intuito de reconhecê-la melhor. Apresentamos uma coleção de métodos de aprendizado que endereça e progressivamente justifica tal abordagem. Ao aprender e operar com representações específicas para face de cada pessoa, nós somos capazes de consistentemente melhorar o poder de reconhecimento dos nossos algoritmos. Em particular, nós obtemos resultados no estado da arte na base de dados PubFig83, uma desafiadora coleção de imagens instituída e tornada pública com o objetivo de promover o estudo do reconhecimento de faces familiares. Nós sugerimos que o aprendizado de representações específicas para face de cada pessoa introduz uma forma intermediária de regularização ao problema de aprendizado, permitindo que os classificadores generalizem melhor através do uso de menos |, porém mais relevantes | características faciais / Abstract: Humans are natural face recognition experts, far outperforming current automated face recognition algorithms, especially in naturalistic, \in-the-wild" settings. However, a striking feature of human face recognition is that we are dramatically better at recognizing highly familiar faces, presumably because we can leverage large amounts of past experience with the appearance of an individual to aid future recognition. Researchers in psychology have even suggested that face representations might be partially tailored or optimized for familiar faces. Meanwhile, the analogous situation in automated face recognition, where a large number of training examples of an individual are available, has been largely underexplored, in spite of the increasing relevance of this setting in the age of social media. Inspired by these observations, we propose to explicitly learn enhanced face representations on a per-individual basis, and we present a collection of methods enabling this approach and progressively justifying our claim. By learning and operating within person-specific representations of faces, we are able to consistently improve performance on both the constrained and the unconstrained face recognition scenarios. In particular, we achieve state-of-the-art performance on the challenging PubFig83 familiar face recognition benchmark. We suggest that such person-specific representations introduce an intermediate form of regularization to the problem, allowing the classifiers to generalize better through the use of fewer | but more relevant | face features / Doutorado / Ciência da Computação / Doutor em Ciência da Computação
318

Aprendizado de máquina baseado na teoria da informação : contribuições à separação de sinais em corpos finitos e inversão de sistemas de Wiener / Information theoretic learning : contributions to signal separation over finite fields and inversion of Wiener systems

Silva, Daniel Guerreiro e, 1983- 23 August 2018 (has links)
Orientadores: Romis Ribeiro de Faissol Attux, Jugurta Rosa Montalvão Filho / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação / Made available in DSpace on 2018-08-23T23:31:44Z (GMT). No. of bitstreams: 1 Silva_DanielGuerreiroe_D.pdf: 5960509 bytes, checksum: febb8228109537e82dfcce66fca8aae8 (MD5) Previous issue date: 2013 / Resumo: Esta tese de doutorado possui como tema geral o desenvolvimento de algoritmos de Aprendizado de Máquina Baseado na Teoria da Informação (ITL - Information Theoretic Learning). O paradigma de ITL propõe o uso de critérios de treinamento baseados em medidas como entropia e informação mútua, em substituição aos tradicionais critérios baseados em estatísticas de segunda ordem. Os problemas de inversão cega de sistemas de Wiener e separação cega de sinais em corpos de Galois são os objetos de estudo e desenvolvimento dessas ferramentas. Estes problemas apresentam características marcantes quanto à necessidade de descritores estatísticos de ordem superior, por isso, apresenta-se uma série de contribuições que se baseiam em critérios de ITL e empregam algoritmos imuno-inspirados (ou heurísticas de busca) para adaptar os parâmetros dos modelos envolvidos. As propostas desenvolvidas abrem a perspectiva de futuras aplicações em áreas como genômica, codificação e geofísica. Espera-se também que os resultados apresentados fortaleçam um entendimento mais amplo de ITL, a fim de abranger estratégias mais genéricas de busca, de estimação de informação e de modelagem de dados / Abstract: The main theme of this thesis is the development of Information Theoretic Learning (ITL) algorithms. The ITL paradigm proposes the adoption of training criteria based on information measures such as entropy and mutual information, instead of traditional criteria based on second order statistics. The problems of blind inversion of Wiener systems and blind separation of signals over Galois fields are the tasks over which these tools are applied. Such problems present key aspects that establish a demand for higher order statistics, hence we present several contributions that are based on ITL criteria and employ immune-inspired algorithms (or heuristic-based methods) to perform the adaptation of the parameters of each related model. The developed proposals open the perspective of future applications in genomic, coding theory and geophysics. Furthermore, we expect that the presented results support a wider understanding of ITL, in order to comprise more general strategies of search, information estimation and data modeling / Doutorado / Engenharia de Computação / Doutor em Engenharia Elétrica
319

Um modelo computacional de aquisição de primeira língua / Properties of natural languages and the acquisitions process

Faria, Pablo, 1978- 24 August 2018 (has links)
Orientadores: Ruth Elisabeth Vasconcellos Lopes, Charlotte Marie Chamberlland Galves / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Estudos da Linguagem / Made available in DSpace on 2018-08-24T00:21:30Z (GMT). No. of bitstreams: 1 Faria_Pablo_D.pdf: 2488292 bytes, checksum: c75ee78601e9b73c790d12ce7e2d414e (MD5) Previous issue date: 2013 / Resumo: Neste trabalho, o fenômeno de aquisição de uma língua natural é investigado através de uma modelagem computacional. O aprendiz modelado - apelidado de IASMIM - se caracteriza como um modelo computacional integrado de aquisição de primeira língua, visto que integra os processos de aquisição lexical e sintática. Além disso, o modelo foi concebido de modo a atender certos critérios de plausibilidade empírica e psicológica. A perspectiva teórica que norteia a investigação é a da Gramática Gerativa (cf. Chomsky, 1986) e este é um modelo voltado para a competência linguística, não um modelo de processamento ou de performance (i.e., de uso do conhecimento linguístico). O aprendiz modelado é capaz de adquirir um conhecimento gramatical relativamente abrangente e demonstra algum potencial translinguístico, particularmente no que diz respeito a variações de ordem. As simulações para avaliação do modelo permitem observar a emergência de padrões de adjunção e de recursividade na gramática, considerados aqui como as principais evidências de um conhecimento sintático mais elaborado. Finalmente, o modelo incorpora algumas noções caras à teoria sintática no âmbito do Programa Minimalista (cf. Chomsky, 1995b), tais como set- Merge, pair-Merge, "traço seletor" (cf. Chomsky, 1998), em conjunto com assunções sobre a binariedade das representações sintáticas e a hipótese de que a ordem linear não tem papel na sintaxe (cf. Uriagereka, 1999). O modelo incorpora, ainda, uma versão da representação semântico-conceitual proposta em Jackendoff (1990). Nesta modelagem, estas noções e assunções ganham uma interpretação concreta e integrada, interagindo na determinação das propriedades do conhecimento adquirido / Abstract: In the present work, the acquisition of natural languages is investigated through a computer simulation. The modelled learner - dubbed IASMIM - is characterized as an integrated computational model of first language acquisition, in the sense that it integrates the processes of lexical and syntactic acquisition. Furthermore, the model was conceived in order to be empirically and psychologically plausible. The theoretical perspective of this enterprise is that of Generative Grammar (cf. Chomsky, 1986) and this is a model concerned with linguistic competence, rather than language processing or performance (i.e., how the acquired knowledge is put to use). The modelled learner is capable of acquiring a relatively broad grammatical knowledge and shows some crosslinguistic abilities, in particular, the ability to handle languages with distinct word orders. In the simulations for evaluation of the model we can observe the emergence of adjunction and recursive patterns in the grammar, taken here as the main pieces of evidence of a more elaborated syntactic knowledge. Finally, the model embodies some central notions for syntactic theory under the Minimalist Program (cf. Chomsky, 1995b), such as set-Merge, pair-Merge and "selector feature" (cf. Chomsky, 1998), together with the assumptions that syntactic representations are strictly binary branching and that linear word order has no significant role in syntactic phenomena (cf. Uriagereka, 1999). The model also embodies a version of the semantic-conceptual representation proposed in Jackendoff (1990). They take a concrete and integrated existence in this model, interacting with one another to determine the properties of the acquired grammatical knowledge / Doutorado / Linguistica / Doutor em Linguística
320

Combinatorial algorithms and linear programming for inference in natural language processing = Algoritmos combinatórios e de programação linear para inferência em processamento de linguagem natural / Algoritmos combinatórios e de programação linear para inferência em processamento de linguagem natural

Passos, Alexandre Tachard, 1986- 24 August 2018 (has links)
Orientador: Jacques Wainer / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-24T00:42:33Z (GMT). No. of bitstreams: 1 Passos_AlexandreTachard_D.pdf: 2615030 bytes, checksum: 93841a46120b968f6da6c9aea28953b7 (MD5) Previous issue date: 2013 / Resumo: Em processamento de linguagem natural, e em aprendizado de máquina em geral, é comum o uso de modelos gráficos probabilísticos (probabilistic graphical models). Embora estes modelos sejam muito convenientes, possibilitando a expressão de relações complexas entre várias variáveis que se deseja prever dado uma sentença ou um documento, algoritmos comuns de aprendizado e de previsão utilizando estes modelos são frequentemente ineficientes. Por isso têm-se explorado recentemente o uso de relaxações usando programação linear deste problema de inferência. Esta tese apresenta duas contribuições para a teoria e prática de relaxações de programação linear para inferência em modelos probabilísticos gráficos. Primeiro, apresentamos um novo algoritmo, baseado na técnica de geração de colunas (dual à técnica dos planos de corte) que acelera a execução do algoritmo de Viterbi, a técnica mais utilizada para inferência em modelos lineares. O algoritmo apresentado também se aplica em modelos que são árvores e em hipergrafos. Em segundo mostramos uma nova relaxação linear para o problema de inferência conjunta, quando se quer acoplar vários modelos, em cada qual inferência é eficiente, mas em cuja junção inferência é NP-completa. Esta tese propõe uma extensão à técnica de decomposição dual (dual decomposition) que permite além de juntar vários modelos a adição de fatores que tocam mais de um submodelo eficientemente / Abstract: In natural language processing, and in general machine learning, probabilistic graphical models (and more generally structured linear models) are commonly used. Although these models are convenient, allowing the expression of complex relationships between many random variables one wants to predict given a document or sentence, most learning and prediction algorithms for general models are inefficient. Hence there has recently been interest in using linear programming relaxations for the inference tasks necessary when learning or applying these models. This thesis presents two contributions to the theory and practice of linear programming relaxations for inference in structured linear models. First we present a new algorithm, based on column generation (a technique which is dual to the cutting planes method) to accelerate the Viterbi algorithm, the most popular exact inference technique for linear-chain graphical models. The method is also applicable to tree graphical models and hypergraph models. Then we present a new linear programming relaxation for the problem of joint inference, when one has many submodels and wants to predict using all of them at once. In general joint inference is NP-complete, but algorithms based on dual decomposition have proven to be efficiently applicable for the case when the joint model can be expressed as many separate models plus linear equality constraints. This thesis proposes an extension to dual decomposition which allows also the presence of factors which score parts that belong in different submodels, improving the expressivity of dual decomposition at no extra computational cost / Doutorado / Ciência da Computação / Doutor em Ciência da Computação

Page generated in 0.0741 seconds