• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 29
  • 15
  • Tagged with
  • 44
  • 44
  • 32
  • 15
  • 14
  • 13
  • 12
  • 11
  • 11
  • 11
  • 11
  • 10
  • 8
  • 8
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

[en] A NON-DETERMINISTIC PORE-THROAT NETWORK EXTRACTION FROM SKELETON BY THINNING ALGORITHM / [pt] EXTRAÇÃO DE REDE DE POROS E GARGANTAS NÃO-DETERMINÍSTICA A PARTIR DE ESQUELETO VIA ALGORITMO DE EROSÃO

TAMIRES PEREIRA PINTO DA SILVA 31 October 2023 (has links)
[pt] A microtomografia computadorizada de uma amostra de rocha possibilita uma caracterização do meio poroso e pode ser utilizada para estimar propriedades da rocha em macroescala, isto é, em escala de reservatório. Métodos baseados em mapas de distâncias e em algoritmos de erosão são as principais abordagens utilizadas para extração de uma rede de poros e gargantas a partir de imagens microtomográficas de rocha. Este trabalho propõe um método híbrido para a construção da rede, de modo que, durante o processo de modelagem na escala de poros, obtemos um esqueleto do espaço poroso por meio de um algoritmo de erosão e utilizamos um mapa de distâncias para construir uma rede de poros e gargantas. A determinação dos poros e gargantas a partir do esqueleto adota uma abordagem não-determinística possibilitando a geração de múltiplas redes com configurações distintas a partir de um mesmo esqueleto. Avaliamos a variabilidade dos cenários gerados e comparamos as estimativas para as propriedades petrofísicas com as obtidas pelo método de Bolas Máximas por meio dos resultados de uma simulação de fluxo monofásica na rede. / [en] Computerized microtomography of a rock sample enables a characterization of the porous medium and can be used to estimate rock properties at the macro-scale, i.e., reservoir-scale. Methods based on distance maps and thinning algorithms are the main approaches used for extracting a pore and throats network from microtomographic rock images. This paper proposes a hybrid method for constructing the network. So that during the pore-scale modeling process, we obtain a skeleton of the pore space by using a thinning algorithm and a distance map to build a network of pores and throats. The determination of pores and throats from the skeleton assumes a non-deterministic approach enabling the generation of multiple networks with distinct configurations from the same skeleton. We evaluate the variability of the generated scenarios and compare the estimates for the petrophysical properties with those obtained by the Maximum Ball Method through the results of a single-phase flow simulation on the network.
42

[en] EXTRACTING AND CONNECTING PLAINTIFF S LEGAL CLAIMS AND JUDICIAL PROVISIONS FROM BRAZILIAN COURT DECISIONS / [pt] EXTRAÇÃO E CONEXÃO ENTRE PEDIDOS E DECISÕES JUDICIAIS DE UM TRIBUNAL BRASILEIRO

WILLIAM PAULO DUCCA FERNANDES 03 November 2020 (has links)
[pt] Neste trabalho, propomos uma metodologia para anotar decisões judiciais, criar modelos de Deep Learning para extração de informação, e visualizar de forma agregada a informação extraída das decisões. Instanciamos a metodologia em dois sistemas. O primeiro extrai modificações de um tribunal de segunda instância, que consiste em um conjunto de categorias legais que são comumente modificadas pelos tribunais de segunda instância. O segundo (i) extrai as causas que motivaram uma pessoa a propor uma ação judicial (causa de pedir), os pedidos do autor e os provimentos judiciais dessas ações proferidas pela primeira e segunda instância de um tribunal, e (ii) conecta os pedidos com os provimentos judiciais correspondentes. O sistema apresenta seus resultados através de visualizações. Extração de Informação para textos legais tem sido abordada usando diferentes técnicas e idiomas. Nossas propostas diferem dos trabalhos anteriores, pois nossos corpora são compostos por decisões de primeira e segunda instância de um tribunal brasileiro. Para extrair as informações, usamos uma abordagem tradicional de Aprendizado de Máquina e outra usando Deep Learning, tanto individualmente quanto como uma solução combinada. Para treinar e avaliar os sistemas, construímos quatro corpora: Kauane Junior para o primeiro sistema, e Kauane Insurance Report, Kauane Insurance Lower e Kauane Insurance Upper para o segundo. Usamos dados públicos disponibilizados pelo Tribunal de Justiça do Estado do Rio de Janeiro para construir os corpora. Para o Kauane Junior, o melhor modelo (Fbeta=1 de 94.79 por cento) foi uma rede neural bidirecional Long Short-Term Memory combinada com Conditional Random Fields (BILSTM-CRF); para o Kauane Insurance Report, o melhor (Fbeta=1 de 67,15 por cento) foi uma rede neural bidirecional Long Short-Term Memory com embeddings de caracteres concatenados a embeddings de palavras combinada com Conditional Random Fields (BILSTM-CE-CRF). Para o Kauane Insurance Lower, o melhor (Fbeta=1 de 89,12 por cento) foi uma BILSTM-CE-CRF; para o Kauane Insurance Upper, uma BILSTM-CRF (Fbeta=1 de 83,66 por cento). / [en] In this work, we propose a methodology to annotate Court decisions, create Deep Learning models to extract information, and visualize the aggregated information extracted from the decisions. We instantiate our methodology in two systems we have developed. The first one extracts Appellate Court modifications, a set of legal categories that are commonly modified by Appellate Courts. The second one (i) extracts plaintiff s legal claims and each specific provision on legal opinions enacted by lower and Appellate Courts, and (ii) connects each legal claim with the corresponding judicial provision. The system presents the results through visualizations. Information Extraction for legal texts has been previously addressed using different techniques and languages. Our proposals differ from previous work, since our corpora are composed of Brazilian lower and Appellate Court decisions. To automatically extract that information, we use a traditional Machine Learning approach and a Deep Learning approach, both as alternative solutions and also as a combined solution. In order to train and evaluate the systems, we have built Kauane Junior corpus for the first system, and three corpora for the second system – Kauane Insurance Report, Kauane Insurance Lower, and Kauane Insurance Upper. We used public data disclosed by the State Court of Rio de Janeiro to build the corpora. For Kauane Junior, the best model, which is a Bidirectional Long Short-Term Memory network combined with Conditional Random Fields (BILSTM-CRF), obtained an (F)beta=1 score of 94.79 percent. For Kauane Insurance Report, the best model, which is a Bidirectional Long Short-Term Memory network with character embeddings concatenated to word embeddings combined with Conditional Random Fields (BILSTM-CE-CRF), obtained an (F)beta=1 score of 67.15 percent. For Kauane Insurance Lower, the best model, which is a BILSTM-CE-CRF, obtained an (F)beta=1 score of 89.12 percent. For Kauane Insurance Upper, the best model, which is a BILSTM-CRF, obtained an (F)beta=1 score of 83.66 percent.
43

[en] ESPÍRITO DE CORPUS: CREATION OF A MARINE CORPS BILINGUAL LEXICON / [pt] ESPÍRITO DE CORPUS: CRIAÇÃO DE UM LÉXICO BILÍNGUE DO CORPO DE FUZILEIROS NAVAIS

MARIANA LEMOS MULLER 07 June 2022 (has links)
[pt] Este estudo apresenta uma pesquisa temática envolvendo Terminologia, Estudos de Tradução Baseados em Corpus, Terminologia Computacional e Semântica Lexical, e tem como objeto de estudo a área do Corpo de Fuzileiros Navais. O objetivo desta pesquisa foi de criar um material terminológico por meio de uma metodologia híbrida de extração de termos desenvolvida a partir de testes com ferramentas de Extração Automática de Termos (EAT). Assim, buscou-se solucionar tanto problemas tradutórios relacionados à subárea de estudo quanto à detecção e validação de candidatos a termos em um corpus. Primeiramente, foi realizado um estudo piloto com o objetivo de avaliar as ferramentas TermoStat Web 3.0 e AntConc 3.5.7. Após os testes por meio da análise de um corpus paralelo bilíngue, foram selecionadas as melhores condições identificadas para se obter uma metodologia eficaz de extração automática de termos aliada à análise humana. Em seguida, essa metodologia foi utilizada para a análise de um corpus bilíngue comparável. Os candidatos a termos extraídos foram então validados pelos critérios de Semântica Lexical propostos por L Homme (2020) e, em seguida, foram detectados seus equivalentes terminológicos. Este estudo resultou na criação do léxico bilíngue Espírito de Corpus. / [en] This study presents a thematic research in the Marine Corps area involving Terminology, Corpus-Based Translation Studies, Computational Terminology and Lexical Semantics. The objective of this research was to create a terminological material through a hybrid methodology of term extraction developed from tests with Automatic Term Extraction (ATE) tools. Thus, we sought to solve both translation problems related to the subarea of study and to the detection and validation of term candidates in a corpus. First, a pilot study was conducted aiming to analyze two tools – TermoStat Web 3.0 and AntConc 3.5.7. After the conduction of the tests through the analysis of a bilingual parallel corpus, the best conditions identified were selected to obtain an effective methodology of automatic extraction of terms allied to human analysis. Then, this methodology was used for the analysis of a comparable bilingual corpus. The term candidates automatically extracted were then validated by the Lexical Semantics criteria proposed by L Homme (2020) and their translation equivalents were detected. This study resulted in the creation of the bilingual lexicon Espírito de Corpus.
44

[pt] GERAÇÃO AUTOMÁTICA DE CONEXÕES PARA GESTÃO DE CONHECIMENTO / [en] ON AUTOMATIC GENERATION OF KNOWLEDGE CONNECTIONS

FELIPE POGGI DE ARAGAO FRAGA 10 November 2022 (has links)
[pt] Recentemente, o tópico de Gestão de Conhecimento Pessoal vem ganhando muita popularidade. Ilustrado pelo rápido crescimento de aplicativos como Notion, Obsidian, e Roam Research e da aparição de livros como How to Take Smart Notes e Building a Second Brain. Contudo, ainda é uma área que não foi fortemente envolvida pelo Processamento de Linguagem Natural (NLP). Isso abre uma bela oportunidade para a aplicação de NLP em operações com conhecimento. Nosso objetivo é o desenvolvimento de um sistema de software que utiliza NLP e aplicatovps de anotação para transformar uma coleção de textos isolados em uma coleção de textos interconectada e inter-navegável. Isso é feito usando mecanismos de navegação baseados em conceitos mencionados e recomendações semânticas. Neste trabalho apresentamos a metodologia para construir o sistema, demonstrações com exemplos palpáveis, assim como uma avaliação para determinar a coerência dos resultados. / [en] Recently, the topic of Personal Knowledge Management (PKM) has seen a surge in popularity. This is illustrated by the accelerated growth of apps such as Notion, Obsidian, and Roam Research, and the appearance of books like How to Take Smart Notes and Building a Second Brain. However, the area of PKM has not seen much integration with the field of Natural Language Processing (NLP). This opens up an interesting opportunity to apply NLP techniques to knowledge operations tasks. Our objective is the development of a Software System that uses NLP and note-taking apps to transform a siloed text collection into an interconnected and inter-navigable text collection. The system uses navigation mechanisms based on shared concepts and semantic relatedness between texts. In this study, we present a methodology to build this system, the research context, demonstrations using examples, and an evaluation to determine if the system functions properly and if the proposed connections are coherent.

Page generated in 0.0361 seconds