• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 36
  • 27
  • 1
  • Tagged with
  • 64
  • 64
  • 63
  • 62
  • 52
  • 25
  • 23
  • 22
  • 18
  • 12
  • 12
  • 12
  • 11
  • 10
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

[en] INCLUSION OF NON-SYMBOLIC HUMAN AGENCIES THROUGH DEEP LEARNING IN COMPUTATIONAL DESIGN PROCESSES / [pt] INCLUSÃO DE AGÊNCIAS HUMANAS NÃO SIMBÓLICAS ATRAVÉS DE TÉCNICAS DE APRENDIZADO PROFUNDO EM PROCESSOS DE DESIGN COMPUTACIONAL GENERATIVO

DANIEL RIBEIRO ALVES BARBOZA VIANNA 03 January 2024 (has links)
[pt] O Design Computacional Generativo é uma forma de Design que consegue gerar uma quantidade virtualmente infinita de possíveis soluções e filtrá-las através de análises computacionais. Cada análise, experimenta e gradua uma demanda, que pode ser relacionada a diversos entes e como estes afetam e são afetados por um design. Dessa maneira, essas análises podem ser entendidas como uma forma de incluir de maneira integrada diversos fatores na síntese da forma do Design. Mesmo com todo esse potencial, as abordagens baseadas no Design Computacional Generativo ainda enfrentam dificuldades na análise e na inclusão de algumas demandas, principalmente naquelas de natureza subjetiva. Isso vem mudando devido a recente introdução de técnicas de Aprendizado Profundo no Design. Essas ferramentas conseguem captar conhecimentos implícitos através da sua aptidão para encontrar padrões em grandes quantidades de dados e replicá-los. Assim, elas podem replicar a avaliação de um designer humano. Essa pesquisa foca especificamente nas análises de critérios processados pelas capacidades humanas não simbólicas. Essas capacidades são aquelas que os humanos partilham com os animais vertebrados e permitem a compreensão de significados e o acionamento de ações sem a necessidade de linguagem. Essas capacidades possuem ao mesmo tempo um caráter objetivo, porque possuem uma base biológica comum a todos os humanos; e subjetivo, porque são influenciadas pelo estado psíquico, pelas motivações e pela experiência de um sujeito. Nesse contexto, o problema identificado é que sem um embasamento teórico essas técnicas acabam se limitando a um exercício fantasioso e ingênuo de automação de Design. Portanto, esta pesquisa parte da hipótese de que um embasamento teórico de conhecimentos da Teoria Pós- humana, da neurociência Conexionista e das Teorias de Fundamentos do Design possibilita que estímulos humanos não simbólicos possam ser incluídos de maneira efetiva na síntese da forma de processos de Design Computacional Generativo através de técnicas de Aprendizado Profundo. O objetivo do trabalho é compreender como a inserção dessas novas técnicas associadas a uma fundamentação teórica específica, vão propiciar a inclusão de fatores não- simbólicas na síntese da forma em processos de Design Computacional Generativo. Para atingir esse objetivo, a pesquisa propõe a elaboração de um conjunto de diretrizes, de uma estrutura metodológica conceitual e de um experimento prático que verifique o funcionamento da avaliação através de máquinas de Aprendizado Profundo. Esses três itens partem do estado da arte da interseção entre o Design Computacional Generativo e as técnicas de Aprendizado Profundo e se baseiam nos conhecimentos Pós-humanos, da neurociência Conexionista e das teorias de Fundamentos do Design. A pesquisa entrelaça dois temas atuais e significativos para o Campo do Design. De um lado, ela busca conhecimentos que preparem os designers para as transformações que a incorporação das técnicas recentes de inteligência artificial vem causando; e de outro, ela se insere nos esforços para que o Design seja um instrumento de transformação da sociedade através de uma reaproximação com as capacidades não simbólicas. / [en] Generative Computational Design is a form of Design that manages to generate a virtually infinite amount of possible solutions and filter them through computational analysis. Each analysis experiences and grades a demand, which can be related to different entities and how they affect and are affected by a design. In this way, these analyzes can be understood as a way of including in an integrated way several factors in the synthesis of the form of Design. Even with all this potential, approaches based on Generative Computational Design still face difficulties in analyzing and including some demands, especially those of a subjective nature. This has been changing due to the recent introduction of Deep Learning techniques in Design. These tools are able to capture implicit knowledge through their ability to find patterns in large amounts of data and replicate them. Thus, they can replicate the assessment of a human designer. This research specifically focuses on the analysis of criteria processed by non-symbolic human capacities. These capabilities are those that humans share with vertebrate animals and allow them the understanding of meanings and the triggering of actions without the need for language. These capacities have at the same time an objective character, because they have a biological basis common to all humans; and subjective, because they are influenced by a subject s psychic state, motivations and experience. In this context, the problem identified is that without a theoretical basis these techniques end up being limited to a fanciful and naive exercise in Design automation and simplistic approaches to style transfer. Thus, this research starts from the hypothesis that a theoretical foundation of knowledge from the Post- Human Theory, from the connectionist neuroscience and from the Fundamental Theories of Design can enable non-symbolic human factors to be effectively included in the synthesis of the form of processes of Generative Computational Design through Deep Learning techniques. The objective of this work is to understand how the insertion of these new techniques associated with a specific theoretical foundation will enable the inclusion of non-symbolic factors in the synthesis of form in Generative Computational Design processes. To achieve this objective, the research proposes the elaboration of a conceptual methodological framework based on the state of the art of the intersection between Generative Computational Design and Deep Learning techniques associated with Post-human knowledge, connectionist neuroscience and Design Foundations theories; as well as the verification of the operation of the technique through the execution of a practical experimental procedure. The research intertwines two current and significant themes for the Field of Design. On the one hand, it seeks knowledge that prepares designers for the transformations that the incorporation of recent artificial intelligence techniques has caused; and on the other hand, it is part of efforts to make Design an instrument for transforming society through a rapprochement with non-symbolic capacities.
Read more
22

[pt] APRENDIZADO PROFUNDO APLICADO À SEGMENTAÇÃO DE TEXTO / [en] DEEP LEARNING APPLIED TO TEXT CHUNKING

MIGUEL MENDES DE BRITO 15 May 2019 (has links)
[pt] O Processamento de Linguagem natural é uma área de pesquisa que explora como computadores podem entender e manipular textos em linguagem natural. Dentre as tarefas mais conhecidas em PLN está a de rotular sequências de texto. O problema de segmentação de texto em sintagmas é um dos problemas que pode ser abordado como rotulagem de sequências. Para isto, classificamos quais palavras pertencem a um sintagma, onde cada sintagma representa um grupo disjunto de palavras sintaticamente correlacionadas. Este tipo de segmentação possui importantes aplicações em tarefas mais complexas de processamento de linguagem natural, como análise de dependências, tradução automática, anotação de papéis semânticos, identificação de orações e outras. O objetivo deste trabalho é apresentar uma arquitetura de rede neural profunda para o problema de segmentação textual em sintagmas para a língua portuguesa. O corpus usado nos experimentos é o Bosque, do projeto Floresta Sintá(c)tica. Baseado em trabalhos recentes na área, nossa abordagem supera o estado-da-arte para o português ao alcançar um F(beta)=1 de 90,51, que corresponde a um aumento de 2,56 em comparação com o trabalho anterior. Além disso, como forma de comprovar a qualidade do segmentador, usamos os rótulos obtidos pelo nosso sistema como um dos atributos de entrada para a tarefa de análise de dependências. Esses atributos melhoraram a acurácia do analisador em 0,87. / [en] Natural Language Processing is a research field that explores how computers can understand and manipulate natural language texts. Sequence tagging is amongst the most well-known tasks in NLP. Text Chunking is one of the problems that can be approached as a sequence tagging problem. Thus, we classify which words belong to a chunk, where each chunk represents a disjoint group of syntactically correlated words. This type of chunking has important applications in more complex tasks of natural language processing, such as dependency parsing, machine translation, semantic role labeling, clause identification and much more. The goal of this work is to present a deep neural network archtecture for the Portuguese text chunking problem. The corpus used in the experiments is the Bosque, from the Floresta Sintá(c)tica project. Based on recent work in the field, our approach surpass the state-of-the-art for Portuguese by achieving a F(beta)=1 of 90.51, which corresponds to an increase of 2.56 in comparison with the previous work. In addition, in order to attest the chunker effectiveness we use the tags obtained by our system as feature for the depedency parsing task. These features improved the accuracy of the parser by 0.87.
Read more
23

[en] DEEP GENERATIVE MODELS FOR RESERVOIR DATA: AN APPLICATION IN SMART WELLS / [pt] MODELOS GENERATIVOS PROFUNDOS PARA DADOS DE RESERVATÓRIO: UMA APLICAÇÃO EM POÇOS INTELIGENTES

ALLAN GURWICZ 27 May 2020 (has links)
[pt] Simulação de reservatório, que por meio de equações complexas emula fluxo em modelos de reservatório, é primordial à indústria de Óleo e Gás. Estimando o comportamento do reservatório dadas diferentes condições de entrada, permite que especialistas otimizem diversos parâmetros na etapa de projeto de campos de petróleo. Entretanto, o tempo computacional necessário para simulações está diretamente correlacionado à complexidade do modelo, que cresce exponencialmente a cada dia que se passa, já que modelos mais detalhados são necessários dada a busca por maior refinamento e redução de incertezas. Deste modo, técnicas de otimização que poderiam significativamente melhorar os resultados de desenvolvimentos de campo podem se tornar inviáveis. Este trabalho propõe o uso de modelos generativos profundos para a geração de dados de reservatório, que podem então ser utilizados para múltiplos propósitos. Modelos generativos profundos são sistemas capazes de modelar estruturas de dados complexas, e que após treinamento robusto são capazes de amostrar dados que seguem a distribuição do conjunto de dados original. A presente aplicação foca em poços inteligentes, uma tecnologia de completação que traz diversas vantagens, dentre as quais uma melhor habilidade de monitoramento e gerenciamento de reservatórios, apesar de carregar um aumento significativo no investimento do projeto. Assim, essas otimizações previamente mencionadas se tornam indispensáveis, de forma a garantir a adoção da tecnologia, junto ao seu máximo retorno. De modo a tornar otimizações de controle de poços inteligentes viáveis dentro de um prazo razoável, redes generativas adversariais são aqui usadas para amostrar conjuntos de dados após um número relativamente pequeno de cenários simulados. Esses dados são então utilizados para o treinamento de aproximadores, algoritmos capazes de substituir o simulador de reservatório e acelerar consideravelmente metodologias de otimização. Estudos de caso foram realizados em modelos referência da indústria, tanto relativamente simples quanto complexos, comparando arquiteturas de redes e validando cada passo da metodologia. No modelo complexo, mais próximo de um cenário real, a metodologia foi capaz de reduzir o erro do aproximador de uma média de 18.93 por cento, para 9.71 por cento. / [en] Reservoir simulation, which via complex equations emulates flow in reservoir models, is paramount to the Oil e Gas industry. By estimating the behavior of the reservoir given different input conditions, it allows specialists to optimize various parameters in the oilfield project stage. Alas, the computational time needed for simulations is directly correlated to the complexity of the model, which grows exponentially with each passing day as more intricate and detailed reservoir models are needed, seeking better refinement and uncertainty reduction. As such, optimization techniques which could greatly improve the results of field developments may be made unfeasible. This work proposes the use of deep generative models for the generation of reservoir data, which may then be used for multiple purposes. Deep generative models are systems capable of modeling complex data structures, which after robust training are capable of sampling data following the same distribution of the original dataset. The present application focuses on smart wells, a technology for completions which brings about a plethora of advantages, among which the better ability for reservoir monitoring and management, although also carrying a significant increase in project investment. As such, these previously mentioned optimizations turn indispensable as to guarantee the adoption of the technology, along with its maximum possible return. As to make smart well control optimizations viable within a reasonable time frame, generative adversarial networks are here used to sample datasets after a relatively small number of simulated scenarios. These datasets are then used for the training of proxies, algorithms able to substitute the reservoir simulator and considerably speed up optimization methodologies. Case studies were done in both relatively simple and complex industry benchmark models, comparing network architectures and validating each step of the methodology. In the complex model, closest to a real-world scenario, the methodology was able to reduce the proxy error from an average of 18.93 percent, to 9.71 percent.
Read more
24

[en] A COMPARISON OF DEEP LEARNING TECHNIQUES FOR DEFORESTATION DETECTION IN THE BRAZILIAN AMAZON AND CERRADO BIOMES FROM REMOTE SENSING IMAGERY / [pt] COMPARAÇÃO DE TÉCNICAS DE DEEP LEARNING PARA DETECÇÃO DE DESMATAMENTO EM BIOMAS DA AMAZÔNIA E CERRADO BRASILEIROS A PARTIR DE IMAGENS DE SENSORIAMENTO REMOTO

MABEL XIMENA ORTEGA ADARME 04 May 2020 (has links)
[pt] O desmatamento é uma das principais causas de redução da biodiversidade, mudança climática e outros fenômenos destrutivos. Assim, a detecção antecipada de desmatamento é de suma importância. Técnicas baseadas em imagens de satélite são uma das opções mais iteresantes para esta aplicação. No entanto, muitos trabalhos desenvolvidos incluem algumas operações manuais ou dependência de um limiar para identificar regiões que sofrem desmatamento ou não. Motivado por este cenário, a presente dissertação apresenta uma avaliação de métodos para detecção automática de desmatamento, especificamente de Early Fusion (EF) Convolutional Network, Siamese Convolutional Network (SN), Convolutional Support Vector Machine (CSVM) e Support Vector Machine (SVM), o último tomado como baseline. Todos os métodos foram avaliados em regiões dos biomas brasileiros Amazônia e Cerrado. Duas imagens Landsat 8 adquiridas em diferentes datas foram utilizadas nos experimentos, e também o impacto do tamanho do conjunto de treinamento foi analisado. Os resultados demonstraram que as abordagens baseadas no Deep Learning superaram claramente o baseline SVM em termos de pontuação F1-score e Overrall Accuracy, com uma superioridade de SN e EF sobre CSVM e SVM. Da mesma forma, uma redução do efeito sal e pimenta nos mapas de mudança gerados foi notada devido, principalmente ao aumento de amostras nos conjuntos de treinamento. Finalmente, realizou-se uma análise visando avaliar como os métodos podem reduzir o esforço humano na inspeção visual das áreas desmatadas. / [en] Deforestation is one of the main causes of biodiversity reduction, climate change, among other destructive phenomena. Thus, early detection of deforestation processes is of paramount importance. Techniques based on satellite images are one of the most attractive options for this application. However, many works developed include some manual operations or dependency on a threshold to identify regions that suffer deforestation or not. Motivated by this scenario, the present dissertation presents an evaluation of methods for automatic deforestation detection, specifically Early Fusion (EF) Convolutional Network, Siamese Convolutional Network (SN), Convolutional Support Vector Machine (CSVM) and Support Vector Machine (SVM), taken as the baseline. These methods were evaluated in regions of Brazilian Amazon and Cerrado Biomes. Two Landsat 8 images acquired at different dates were used in the experiments, and the impact of training set size was also analyzed. The results demonstrated that Deep Learning-based approaches clearly outperformed the SVM baseline in our approaches, both in terms of F1-score and Overall Accuracy, with the superiority of SN and EF over CSVM and SVM. In the same way, a reduction of the salt-and-pepper effect in the generated probabilistic change maps was noticed due, mainly, to the increase of samples in the training sets. Finally, an analysis was carried out to assess how the methods can reduce the time invested in the visual inspection of deforested areas.
Read more
25

[pt] CLUSTERIZAÇÃO BASEADA EM GRAFO EM ESPAÇO DE CARACTERÍSTICAS PROFUNDO PARA CORRESPONDÊNCIA DE FORMAS / [en] GRAPH-BASED CLUSTERING IN DEEP FEATURE SPACE FOR SHAPE MATCHING

DANIEL LUCA ALVES DA SILVA 02 July 2024 (has links)
[pt] Projetos de engenharia dependem de modelos CAD 3D complexos durante todo o seu ciclo de vida. Esses modelos 3D contêm milhões de geometrias que impõem desafios de armazenamento, transmissão e renderização. Trabalhos anteriores empregaram com sucesso técnicas de correspondência de formas baseadas em aprendizado profundo para reduzir a memória exigida por esses modelos 3D. Este trabalho propõe um algoritmo baseado em grafos que melhora o agrupamento não supervisionado em espaços profundos de características. Essa abordagem refina drasticamente a precisão da correspondência de formas e resulta em requisitos de memória ainda mais baixos para os modelos 3D. Em um conjunto de dados rotulado, nosso método atinge uma redução de 95 por cento do modelo, superando as técnicas não supervisionadas anteriores que alcançaram 87 por cento e quase atingindo a redução de 97 por cento de uma abordagem totalmente supervisionada. Em um conjunto de dados não rotulado, nosso método atinge uma redução média do modelo de 87 por cento contra uma redução média de 77 por cento das técnicas não supervisionadas anteriores. / [en] Engineering projects rely on complex 3D CAD models throughout their life cycle. These 3D models comprise millions of geometries that impose storage, transmission, and rendering challenges. Previous works have successfully employed shape-matching techniques based on deep learning to reduce the memory required by these 3D models. This work proposes a graph-based algorithm that improves unsupervised clustering in deep feature space. This approach dramatically refines shape-matching accuracy and results in even lower memory requirements for the 3D models. In a labeled dataset, our method achieves a 95 percent model reduction, outperforming previous unsupervised techniques that achieved 87 percent and almost reaching the 97 percent reduction from a fully supervised approach. In an unlabeled dataset, our method achieves an average model reduction of 87 percent versus an average reduction of 77 percent from previous unsupervised techniques.
Read more
26

[pt] ARQUITETURA PROFUNDA PARA EXTRAÇÃO DE CITAÇÕES / [en] DEEP ARCHITECTURE FOR QUOTATION EXTRACTION

LUIS FELIPE MULLER DE OLIVEIRA HENRIQUES 28 July 2017 (has links)
[pt] A Extração e Atribuição de Citações é a tarefa de identificar citações de um texto e associá-las a seus autores. Neste trabalho, apresentamos um sistema de Extração e Atribuição de Citações para a língua portuguesa. A tarefa de Extração e Atribuição de Citações foi abordada anteriormente utilizando diversas técnicas e para uma variedade de linguagens e datasets. Os modelos tradicionais para a tarefa consistem em extrair manualmente um rico conjunto de atributos e usá-los para alimentar um classificador raso. Neste trabalho, ao contrário da abordagem tradicional, evitamos usar atributos projetados à mão, usando técnicas de aprendizagem não supervisionadas e redes neurais profundas para automaticamente aprender atributos relevantes para resolver a tarefa. Ao evitar a criação manual de atributos, nosso modelo de aprendizagem de máquina tornou-se facilmente adaptável a outros domínios e linguagens. Nosso modelo foi treinado e avaliado no corpus GloboQuotes e sua métrica de desempenho F1 é igual a 89.43 por cento. / [en] Quotation Extraction and Attribution is the task of identifying quotations from a given text and associating them to their authors. In this work, we present a Quotation Extraction and Attribution system for the Portuguese language. The Quotation Extraction and Attribution task has been previously approached using various techniques and for a variety of languages and datasets. Traditional models to this task consist of extracting a rich set of hand-designed features and using them to feed a shallow classifier. In this work, unlike the traditional approach, we avoid using hand-designed features using unsupervised learning techniques and deep neural networks to automatically learn relevant features to solve the task. By avoiding design features by hand, our machine learning model became easily adaptable to other languages and domains. Our model is trained and evaluated at the GloboQuotes corpus, and its F1 performance metric is equal to 89.43 percent.
Read more
27

[pt] ANOTAÇÃO PROFUNDA DE PAPÉIS SEMÂNTICOS PARA O PORTUGUÊS / [en] DEEP SEMANTIC ROLE LABELING FOR PORTUGUESE

GUILHERME SANT ANNA VARELA 06 August 2019 (has links)
[pt] Vivemos em um mundo complexo, no qual incontáveis fatores aparentemente desconexos – tais como a lei de Moore que dita um aumento exponencial da capacidade de processamento em um chip de silício, a queda do custo de espaço de armazenamento e a adoção em massa de smartphones colaboram para a formação de uma sociedade progressivamente interdependente. Todos os dias são criados 2,5 quintilhões de bytes de dados, de fato 90 por cento dos dados no mundo foram criados nos últimos dois anos. Domar os padrões salientes aos dados separando informação do caos torna-se uma necessidade iminente para a tomada de decisão dos indivíduos e para sobrevivência de organizações. Nesse cenário a melhor resposta dos pesquisadores de Processamento de Linguagem Natural encontra-se na tarefa de Anotação de Papéis Semânticos. APS é a tarefa que tem o audacioso objetivo de compreender eventos, buscando determinar Quem fez o que e aonde, Quais foram os beneficiados? ou Qual o meio utilizado para atingir os fins. APS serve como tarefa intermediária para várias aplicações de alto nível e.g information extraction, question and answering e agentes conversacionais. Tradicionalmente, resultados satisfatórios eram obtidos apenas com alta dependência de conhecimento específico de domínio. Para o português, através desta abordagem, o sistema estado da arte da tarefa para é de 79,6 por cento de pontuação F1. Sistemas mais recentes dependem de uma série de subtarefas, obtém 58 por cento de pontuação F1. Nessa dissertação, exploramos um novo paradigma utilizando redes neurais recorrentes, para o idioma do português do Brasil, e sem subtarefas intermediárias obtendo uma pontuação de 66,23. / [en] We live in a complex world in which a myriad of seemingly unrelated factors – such as Moore s law which states that the processing capacity on a silicon wafer should increase exponentially, the fall of storage costs and mass adoption of smart-phones contribute to the formation of an increasingly inter-dependent society: 2.5 quintillion bytes of data are generated every day, in fact ninety percent of the world s data were created in the last few years. Harnessing the emerging patterns within the data, effectively separating information from chaos is crucial for both individual decision making as well as for the survival of organizations. In this scenario the best answer from Natural Language Processing researchers is the task of Semantic Role Labeling. SRL is the task the concerns itself with the audacious goal of event understanding, which means determining Who did what to whom, Who was the beneficiary? or What were the means to achieve some goal. APS is also an intermediary task to high level applications such as information extraction, question and answering and chatbots. Traditionally, satisfactory results were obtained only by the introduction of highly specific domain knowledge. For Portuguese, this approach is able to yields a F1 score of 79.6 percent. Recent systems, rely on a pipeline of sub-tasks, yielding a F1 score of 58 percent. In this dissertation, we adopt a new paradigm using recurrent neural networks for the Brazilian Portuguese, that does not rely on a pipeline, our system obtains a score of 66.23 percent.
Read more
28

[en] PART-OF-SPEECH TAGGING FOR PORTUGUESE / [pt] PART-OF-SPEECH TAGGING PARA PORTUGUÊS

ROMULO CESAR COSTA DE SOUSA 07 April 2020 (has links)
[pt] Part-of-speech (POS) tagging é o processo de categorizar cada palavra de uma sentença com sua devida classe morfossintática (verbo, substantivo, adjetivo e etc). POS tagging é considerada uma atividade fundamental no processo de construção de aplicações de processamento de linguagem natural (PLN), muitas dessas aplicações, em algum ponto, demandam esse tipo de informação. Nesse trabalho, construímos um POS tagger para o Português Contemporâneo e o Português Histórico, baseado em uma arquitetura de rede neural recorrente. Tradicionalmente a construção dessas ferramentas requer muitas features específicas do domínio da linguagem e dados externos ao conjunto de treino, mas nosso POS tagger não usa esses requisitos. Treinamos uma rede Bidirectional Long short-term memory (BLSTM), que se beneficia das representações de word embeddings e character embeddings das palavras, para atividade de classificação morfossintática. Testamos nosso POS tagger em três corpora diferentes: a versão original do corpus MacMorpho, a versão revisada do corpus Mac-Morpho e no corpus Tycho Brahe. Nós obtemos um desempenho ligeiramente melhor que os sistemas estado da arte nos três corpora: 97.83 por cento de acurácia para o Mac-Morpho original, 97.65 por cento de acurácia para o Mac-Morpho revisado e 97.35 por cento de acurácia para Tycho Brahe. Conseguimos, também, uma melhora nos três corpora para a medida de acurácia fora do vocabulário, uma acurácia especial calculada somente sobre as palavras desconhecidas do conjunto de treino. Realizamos ainda um estudo comparativo para verificar qual dentre os mais populares algoritmos de criação de word embedding (Word2Vec, FastText, Wang2Vec e Glove), é mais adequado para a atividade POS tagging em Português. O modelo de Wang2Vec mostrou um desempenho superior. / [en] Part-of-speech (POS) tagging is a process of labeling each word in a sentence with a morphosyntactic class (verb, noun, adjective and etc). POS tagging is a fundamental part of the linguistic pipeline, most natural language processing (NLP) applications demand, at some step, part-of-speech information. In this work, we constructed a POS tagger for Contemporary Portuguese and Historical Portuguese, using a recurrent neural network architecture. Traditionally the development of these tools requires many handcraft features and external data, our POS tagger does not use these elements. We trained a Bidirectional Long short-term memory (BLSTM) network that benefits from the word embeddings and character embeddings representations of the words, for morphosyntactic classification. We tested our POS tagger on three different corpora: the original version of the Mac-Morpho corpus, the revised version of the Mac-Morpho corpus, and the Tycho Brahe corpus. We produce state-of-the-art POS taggers for the three corpora: 97.83 percent accuracy on the original Mac-Morpho corpus, 97.65 percent accuracy on the revised Mac-Morpho and 97.35 percent accuracy on the Tycho Brahe corpus. We also achieved an improvement in the three corpora in out-of-vocabulary accuracy, that is the accuracy on words not seen in training sentences. We also performed a comparative study to test which different types of word embeddings (Word2Vec, FastText, Wang2Vec, and Glove) is more suitable for Portuguese POS tagging. The Wang2Vec model showed higher performance.
Read more
29

[en] A STUDY ON NEURAL NETWORKS FOR POKER PLAYING AGENTS / [pt] UM ESTUDO EM REDES NEURAIS PARA AGENTES JOGADORES DE PÔQUER

ALEXANDRE MARANGONI COSTA 12 May 2020 (has links)
[pt] A ciência de dados precisa de uma grande quantidade de dados para testar e melhorar soluções. Jogos são largamente usados para abstrair situações da vida real. Rodadas de pôquer são um bom exemplo pois, por não saber as cartas dos oponentes, o jogador analisa um cenário de informação incompleta numa competição de agentes que envolve conhecimento probabilístico, análise de risco e brefe. Isso o diferencia de xadrez, damas e jogos de conhecimento perfeito e algoritmos de busca em forca bruta sobre o espaço de soluções. Usar o pôquer como um caso de teste possibilita a análise de diferentes abordagens usadas na vida real, porém num cenário mais controlado. Esta dissertação propõe um arcabouço de funcionalidades para criar e testar diferentes algorítimos de Deep Learning, que podem jogar pôquer entre sí, aprender com o histórico e maximizar suas recompensas. / [en] Data science research needs real examples to test and improve solutions. Games are widely used to mimic those real-world examples. Poker rounds are a good example of imperfect information state with competing agents dealing with probabilistic knowledge, risk assessment, and possible deception, unlike chess, checkers and perfect information brute-force search style of games. By using poker as a test-bed we can analyze different approaches used in real-world examples, in a more controlled environment, which should give great insights on how to tackle those real-world scenarios. We propose a framework to build and test different neural networks that can play against each other, learn from a supervised experience and maximize its rewards.
Read more
30

[en] IDENTIFICATION OF PROTEIN SUBCELLULAR LOCALIZATION BY DEEP LEARNING TECHNIQUES / [pt] IDENTIFICAÇÃO DA LOCALIZAÇÃO SUBCELULAR DE PROTEÍNAS POR MEIO DE TÉCNICAS DE DEEP LEARNING

ROBERTO BANDEIRA DE MELLO MORAIS DA SILVA 21 May 2020 (has links)
[pt] As proteínas são macromoléculas biológicas compostas por cadeias de aminoácidos, presentes em praticamente todos os processos celulares, sendo essenciais para o correto funcionamento do organismo humano. Existem diversos estudos em torno do proteoma humano a fim de se identificar quais são as funções de cada proteína nas diferentes células, tecidos e órgãos do corpo humano. A classificação destas proteínas em diferentes formas, como por exemplo a localização subcelular, é importante para diversas aplicações da biomedicina. Com o avanço das tecnologias para obtenção de imagens das proteínas, tem-se que hoje estas são geradas em grande volume e mais rapidamente do que é possível classificá-las manualmente, o que torna importante o desenvolvimento de um classificador automático capaz de realizar esta classificação de maneira eficaz. Dessa forma, esta dissertação buscou desenvolver algoritmos capazes de realizar a classificação automática de padrões mistos de localização subcelular de proteínas, por meio do uso de técnicas de Deep Learning. Inicialmente, fez-se uma revisão da literatura em torno de redes neurais, Deep Learning e SVMs, e utilizou-se o banco de dados, publicamente disponíve, de imagens de células do Human Protein Atlas, para treinamento dos algoritmos de aprendizagem supervisionada. Diversos modelos foram desenvolvidos e avaliados, visando identificar aquele com melhor desempenho na tarefa de classificação. Ao longo do trabalho foram desenvolvidas redes neurais artificiais convolucionais de topologia LeNet, ResNet e um modelo híbrido ResNet-SVM, tendo sido treinadas ao todo 81 redes neurais diferentes, a fim de se identificar o melhor conjunto de hiper-parâmetros. As análises efetuadas permitiram concluir que a rede de melhor desempenho foi uma variante da topologia ResNet, que obteve em suas métricas de desempenho uma acurácia de 0,94 e uma pontuação F1 de 0,44 ao se avaliar o comportamento da rede frente ao conjunto de teste. Os resultados obtidos pela diferentes topologias analisadas foram detalhadamente avaliados e, com base nos resultados alcançados, foram sugeridos trabalhos futuros baseados em possíveis melhorias para as redes de melhor desempenho. / [en] Proteins are biological macromolecules composed of aminoacid chains, part of practically all cellular processes, being essential for the correct functioning of the human organism. There are many studies around the human protein aiming to identify the proteins’ functions in different cells, tissues and organs in the human body. The protein classification in many forms, such as the subcellular localization, is important for many biomedical applications. With the advance of protein image obtention technology, today these images are generated in large scale and faster than it is possible to manually classify them, which makes crucial the development of a system capable of classifying these images automatically and accurately. In that matter, this dissertation aimed to develop algorithms capable of automatically classifying proteins in mixed patterns of subcellular localization with the use of Deep Learning techniques. Initially, a literature review on neural networks, Deep Learning and SVMs, and a publicly available image database from the Human Protein Atlas was used to train the supervised learning algorithms. Many models were developed seeking the best performance in the classification task. Throughout this work, convolutional artificial neural networks of topologies LeNet, ResNet and a hybrid ResNet-SVM model were developed, with a total of 81 different neural networks trained, aiming to identify the best hyper-parameters. The analysis allowed the conclusion that the network with best performance was a ResNet variation, which obtained in its performance metrics an accuracy of 0.94 and an F1 score of 0.44 when evaluated against the test data. The obtained results of these topologies were detailedly evaluated and, based on the measured results, future studies were suggested based on possible improvements for the neural networks that had the best performances.
Read more

Page generated in 0.0625 seconds