41 |
[en] A FUZZY INFERENCE SYSTEM WITH AUTOMATIC RULE EXTRACTION FOR GAS PATH DIAGNOSIS OF AVIATION GAS TURBINES / [pt] SISTEMA DE INFERÊNCIA FUZZY COM EXTRAÇÃO AUTOMÁTICA DE REGRAS PARA DIAGNÓSTICO DE DESEMPENHO DE TURBINAS A GÁS AERONÁUTICASTAIRO DOS PRAZERES TEIXEIRA 14 December 2016 (has links)
[pt] Turbinas a gás são equipamentos muito complexos e caros. No caso de falha em uma turbina, há obviamente perdas diretas, mas as indiretas são normalmente muito maiores, uma vez que tal equipamento é crítico para a operação de instalações industriais, aviões e veículos pesados. Portanto, é fundamental que turbinas a gás sejam providas com um sistema eficiente de monitoramento e diagnóstico. Isto é especialmente relevante no Brasil, cuja frota de turbinas tem crescido muito nos últimos anos, devido, principalmente, ao aumento do número de usinas termelétricas e ao crescimento da aviação civil. Este trabalho propõe um Sistema de Inferência Fuzzy (SIF) com extração automática de regras para diagnóstico de desempenho de turbinas a gás aeronáuticas. O sistema proposto faz uso de uma abordagem residual – medições da turbina real são comparadas frente a uma referência de turbina saudável – para tratamento dos dados brutos de entrada para os módulos de detecção e isolamento, que, de forma hierárquica, são responsáveis por detectar e isolar falhas em nível de componentes, sensores e atuadores. Como dados reais de falhas em turbinas a gás são de difícil acesso e de obtenção cara, a metodologia é validada frente a uma base de dados de falhas simuladas por um software especialista. Os resultados mostram que o SIF é capaz de detectar e isolar corretamente falhas, além de fornecer interpretabilidade linguística, característica importante no processo de tomada de decisão no contexto de manutenção. / [en] A Gas turbine is a complex and expensive equipment. In case of a failure indirect losses are typically much larger than direct ones, since such equipment plays a critical role in the operation of industrial installations, aircrafts, and heavy vehicles. Therefore, it is vital that gas turbines be provided with an efficient monitoring and diagnostic system. This is especially relevant in Brazil, where the turbines fleet has risen substantially in recent years, mainly due to the increasing number of thermal power plants and to the growth of civil aviation. This work proposes a Fuzzy Inference System (FIS) with automatic rule extraction for gas path diagnosis. The proposed system makes use of a residual approach – gas path measurements are compared to a healthy engine reference – for preprocessing raw input data that are forwarded to the detection and isolation modules. These operate in a hierarchical manner and are responsible for fault detection and isolation in components, sensors and actuators. Since gas turbines failure data are difficult to access and expensive to obtain, the methodology is validated by using a database fault simulated by a specialist software. The results show that the SIF is able to correctly detect and isolate failures and to provide linguistic interpretability, which is an important feature in the decision-making process regarding maintenance.
|
42 |
[en] A NON-DETERMINISTIC PORE-THROAT NETWORK EXTRACTION FROM SKELETON BY THINNING ALGORITHM / [pt] EXTRAÇÃO DE REDE DE POROS E GARGANTAS NÃO-DETERMINÍSTICA A PARTIR DE ESQUELETO VIA ALGORITMO DE EROSÃOTAMIRES PEREIRA PINTO DA SILVA 31 October 2023 (has links)
[pt] A microtomografia computadorizada de uma amostra de rocha possibilita
uma caracterização do meio poroso e pode ser utilizada para estimar
propriedades da rocha em macroescala, isto é, em escala de reservatório.
Métodos baseados em mapas de distâncias e em algoritmos de erosão são
as principais abordagens utilizadas para extração de uma rede de poros e
gargantas a partir de imagens microtomográficas de rocha. Este trabalho
propõe um método híbrido para a construção da rede, de modo que, durante
o processo de modelagem na escala de poros, obtemos um esqueleto do espaço
poroso por meio de um algoritmo de erosão e utilizamos um mapa de distâncias
para construir uma rede de poros e gargantas. A determinação dos poros
e gargantas a partir do esqueleto adota uma abordagem não-determinística
possibilitando a geração de múltiplas redes com configurações distintas a partir
de um mesmo esqueleto. Avaliamos a variabilidade dos cenários gerados e
comparamos as estimativas para as propriedades petrofísicas com as obtidas
pelo método de Bolas Máximas por meio dos resultados de uma simulação de
fluxo monofásica na rede. / [en] Computerized microtomography of a rock sample enables a
characterization of the porous medium and can be used to estimate rock
properties at the macro-scale, i.e., reservoir-scale. Methods based on distance
maps and thinning algorithms are the main approaches used for extracting
a pore and throats network from microtomographic rock images. This paper
proposes a hybrid method for constructing the network. So that during the
pore-scale modeling process, we obtain a skeleton of the pore space by using
a thinning algorithm and a distance map to build a network of pores and
throats. The determination of pores and throats from the skeleton assumes a
non-deterministic approach enabling the generation of multiple networks with
distinct configurations from the same skeleton. We evaluate the variability
of the generated scenarios and compare the estimates for the petrophysical
properties with those obtained by the Maximum Ball Method through the
results of a single-phase flow simulation on the network.
|
43 |
[en] EXTRACTING AND CONNECTING PLAINTIFF S LEGAL CLAIMS AND JUDICIAL PROVISIONS FROM BRAZILIAN COURT DECISIONS / [pt] EXTRAÇÃO E CONEXÃO ENTRE PEDIDOS E DECISÕES JUDICIAIS DE UM TRIBUNAL BRASILEIROWILLIAM PAULO DUCCA FERNANDES 03 November 2020 (has links)
[pt] Neste trabalho, propomos uma metodologia para anotar decisões judiciais,
criar modelos de Deep Learning para extração de informação, e visualizar
de forma agregada a informação extraída das decisões. Instanciamos a
metodologia em dois sistemas. O primeiro extrai modificações de um tribunal
de segunda instância, que consiste em um conjunto de categorias legais
que são comumente modificadas pelos tribunais de segunda instância. O
segundo (i) extrai as causas que motivaram uma pessoa a propor uma ação
judicial (causa de pedir), os pedidos do autor e os provimentos judiciais dessas
ações proferidas pela primeira e segunda instância de um tribunal, e (ii)
conecta os pedidos com os provimentos judiciais correspondentes. O sistema
apresenta seus resultados através de visualizações. Extração de Informação
para textos legais tem sido abordada usando diferentes técnicas e idiomas.
Nossas propostas diferem dos trabalhos anteriores, pois nossos corpora são
compostos por decisões de primeira e segunda instância de um tribunal brasileiro.
Para extrair as informações, usamos uma abordagem tradicional de
Aprendizado de Máquina e outra usando Deep Learning, tanto individualmente
quanto como uma solução combinada. Para treinar e avaliar os sistemas,
construímos quatro corpora: Kauane Junior para o primeiro sistema,
e Kauane Insurance Report, Kauane Insurance Lower e Kauane Insurance
Upper para o segundo. Usamos dados públicos disponibilizados pelo Tribunal
de Justiça do Estado do Rio de Janeiro para construir os corpora. Para
o Kauane Junior, o melhor modelo (Fbeta=1 de 94.79 por cento) foi uma rede neural bidirecional Long Short-Term Memory combinada com Conditional Random
Fields (BILSTM-CRF); para o Kauane Insurance Report, o melhor (Fbeta=1
de 67,15 por cento) foi uma rede neural bidirecional Long Short-Term Memory com
embeddings de caracteres concatenados a embeddings de palavras combinada
com Conditional Random Fields (BILSTM-CE-CRF). Para o Kauane
Insurance Lower, o melhor (Fbeta=1 de 89,12 por cento) foi uma BILSTM-CE-CRF;
para o Kauane Insurance Upper, uma BILSTM-CRF (Fbeta=1 de 83,66 por cento). / [en] In this work, we propose a methodology to annotate Court decisions,
create Deep Learning models to extract information, and visualize the aggregated
information extracted from the decisions. We instantiate our methodology
in two systems we have developed. The first one extracts Appellate
Court modifications, a set of legal categories that are commonly modified
by Appellate Courts. The second one (i) extracts plaintiff s legal claims and
each specific provision on legal opinions enacted by lower and Appellate
Courts, and (ii) connects each legal claim with the corresponding judicial
provision. The system presents the results through visualizations. Information
Extraction for legal texts has been previously addressed using different
techniques and languages. Our proposals differ from previous work, since
our corpora are composed of Brazilian lower and Appellate Court decisions.
To automatically extract that information, we use a traditional Machine
Learning approach and a Deep Learning approach, both as alternative solutions
and also as a combined solution. In order to train and evaluate the
systems, we have built Kauane Junior corpus for the first system, and three
corpora for the second system – Kauane Insurance Report, Kauane Insurance
Lower, and Kauane Insurance Upper. We used public data disclosed by
the State Court of Rio de Janeiro to build the corpora. For Kauane Junior,
the best model, which is a Bidirectional Long Short-Term Memory network
combined with Conditional Random Fields (BILSTM-CRF), obtained an
(F)beta=1 score of 94.79 percent. For Kauane Insurance Report, the best model, which is a Bidirectional Long Short-Term Memory network with character embeddings
concatenated to word embeddings combined with Conditional Random
Fields (BILSTM-CE-CRF), obtained an (F)beta=1 score of 67.15 percent. For
Kauane Insurance Lower, the best model, which is a BILSTM-CE-CRF,
obtained an (F)beta=1 score of 89.12 percent. For Kauane Insurance Upper, the best
model, which is a BILSTM-CRF, obtained an (F)beta=1 score of 83.66 percent.
|
44 |
[en] ESPÍRITO DE CORPUS: CREATION OF A MARINE CORPS BILINGUAL LEXICON / [pt] ESPÍRITO DE CORPUS: CRIAÇÃO DE UM LÉXICO BILÍNGUE DO CORPO DE FUZILEIROS NAVAISMARIANA LEMOS MULLER 07 June 2022 (has links)
[pt] Este estudo apresenta uma pesquisa temática envolvendo Terminologia, Estudos de Tradução Baseados em Corpus, Terminologia Computacional e Semântica
Lexical, e tem como objeto de estudo a área do Corpo de Fuzileiros Navais. O objetivo desta pesquisa foi de criar um material terminológico por meio de uma metodologia híbrida de extração de termos desenvolvida a partir de testes com ferramentas
de Extração Automática de Termos (EAT). Assim, buscou-se solucionar tanto problemas tradutórios relacionados à subárea de estudo quanto à detecção e validação
de candidatos a termos em um corpus. Primeiramente, foi realizado um estudo piloto
com o objetivo de avaliar as ferramentas TermoStat Web 3.0 e AntConc 3.5.7. Após
os testes por meio da análise de um corpus paralelo bilíngue, foram selecionadas as
melhores condições identificadas para se obter uma metodologia eficaz de extração
automática de termos aliada à análise humana. Em seguida, essa metodologia foi utilizada para a análise de um corpus bilíngue comparável. Os candidatos a termos extraídos foram então validados pelos critérios de Semântica Lexical propostos por
L Homme (2020) e, em seguida, foram detectados seus equivalentes terminológicos.
Este estudo resultou na criação do léxico bilíngue Espírito de Corpus. / [en] This study presents a thematic research in the Marine Corps area involving
Terminology, Corpus-Based Translation Studies, Computational Terminology and
Lexical Semantics. The objective of this research was to create a terminological material through a hybrid methodology of term extraction developed from tests with
Automatic Term Extraction (ATE) tools. Thus, we sought to solve both translation
problems related to the subarea of study and to the detection and validation of term
candidates in a corpus. First, a pilot study was conducted aiming to analyze two tools
– TermoStat Web 3.0 and AntConc 3.5.7. After the conduction of the tests through
the analysis of a bilingual parallel corpus, the best conditions identified were selected
to obtain an effective methodology of automatic extraction of terms allied to human
analysis. Then, this methodology was used for the analysis of a comparable bilingual
corpus. The term candidates automatically extracted were then validated by the Lexical Semantics criteria proposed by L Homme (2020) and their translation equivalents
were detected. This study resulted in the creation of the bilingual lexicon Espírito de
Corpus.
|
45 |
[pt] GERAÇÃO AUTOMÁTICA DE CONEXÕES PARA GESTÃO DE CONHECIMENTO / [en] ON AUTOMATIC GENERATION OF KNOWLEDGE CONNECTIONSFELIPE POGGI DE ARAGAO FRAGA 10 November 2022 (has links)
[pt] Recentemente, o tópico de Gestão de Conhecimento Pessoal vem ganhando muita popularidade. Ilustrado pelo rápido crescimento de aplicativos
como Notion, Obsidian, e Roam Research e da aparição de livros como How
to Take Smart Notes e Building a Second Brain.
Contudo, ainda é uma área que não foi fortemente envolvida pelo
Processamento de Linguagem Natural (NLP). Isso abre uma bela oportunidade
para a aplicação de NLP em operações com conhecimento.
Nosso objetivo é o desenvolvimento de um sistema de software que
utiliza NLP e aplicatovps de anotação para transformar uma coleção de textos
isolados em uma coleção de textos interconectada e inter-navegável. Isso é
feito usando mecanismos de navegação baseados em conceitos mencionados e
recomendações semânticas.
Neste trabalho apresentamos a metodologia para construir o sistema,
demonstrações com exemplos palpáveis, assim como uma avaliação para determinar a coerência dos resultados. / [en] Recently, the topic of Personal Knowledge Management (PKM) has seen
a surge in popularity. This is illustrated by the accelerated growth of apps
such as Notion, Obsidian, and Roam Research, and the appearance of books
like How to Take Smart Notes and Building a Second Brain.
However, the area of PKM has not seen much integration with the field of
Natural Language Processing (NLP). This opens up an interesting opportunity
to apply NLP techniques to knowledge operations tasks.
Our objective is the development of a Software System that uses NLP and
note-taking apps to transform a siloed text collection into an interconnected
and inter-navigable text collection. The system uses navigation mechanisms
based on shared concepts and semantic relatedness between texts.
In this study, we present a methodology to build this system, the research
context, demonstrations using examples, and an evaluation to determine if the
system functions properly and if the proposed connections are coherent.
|
Page generated in 0.0377 seconds