71 |
[en] CLUSTERING AND VISUALIZATION OF SEISMIC DATA USING VECTOR QUANTIZATION / [pt] AGRUPAMENTO E VISUALIZAÇÃO DE DADOS SÍSMICOS ATRAVÉS DE QUANTIZAÇÃO VETORIALERNESTO MARCHIONI FLECK 28 April 2005 (has links)
[pt] Nesta tese é proposto um novo método de agrupamento de
dados sísmicos
para a visualização em mapas sísmicos. Os dados sísmicos
(sinal + ruído) têm
distribuições assimétricas. A classificação dos dados
sísmicos é, atualmente,
realizada através de métodos que induzem as referências dos
grupos propostos às
suas médias. No entanto, a média é sensível aos ruídos e
aos outliers e as
classificações com este estimador estão sujeitas a
distorções nos resultados.
Embora outros trabalhos sugiram o uso da mediana nos casos
em que as
distribuições são assimétricas - devido ao fato deste
estimador ser robusto aos
ruídos e aos outliers - em nenhum foi encontrado um método
que induza as
referências dos grupos propostos às medianas no tratamento
dos dados sísmicos.
O método proposto incluí um algoritmo que induz as
referências dos grupos
propostos às suas medianas. O tratamento iterativo dos
dados sísmicos através da
aplicação de uma função não linear adequada ao gradiente
descendente gera
resultados cujos erros médios quadráticos são inferiores
aos dos resultados dos
métodos que induzem à média. Um parâmetro existente no
algoritmo, a constante
de não linearidade, determina a maneira como os dados são
induzidos, a partir da
média, na direção da mediana. A convergência aos resultados
requer poucas
iterações no método proposto. O método proposto é uma
ferramenta para o
dimensionamento de reservatórios de petróleo e serve para a
determinação de
diferenças entre as propriedades de estruturas geológicas
similares. / [en] This thesis suggests the use of a new method of seismic
data clustering that
can aid in the visualization of seismic maps. Seismic data
are primarily made of
signal and noise and, due to its dual composition, have
asymmetric distributions.
Seismic data are traditionally classified by methods that
lead the proposed groups`
references to their mean values. The mean value is,
however, sensitive to noise
and outliers and the classification methods that make use
of this estimator are,
consequently, subjected to generating distorted results.
Although other works
have suggested the use of the median in cases where the
distributions are
asymmetric - due to the fact that the estimator is robust
with respect to noise and
outliers - none have proposed a method that would lead the
groups` references to
the median while treating seismic data. The method proposed
in this work
includes, therefore, an algorithm that leads the groups`
references to their
medians. The iterative treatment of seismic data through
the use of a non-linear
function that is adequate for the gradient descent
generates results with meansquare
errors inferior to those of results generated by the use of
the mean value.
The algorithm`s non- linearity constant determines how the
seismic data are led
from the mean value towards the median. The proposed method
requires little
iteration for the results to converge. The proposed method
can, therefore, be used
as a tool in the sizing of petroleum reservoirs and can
also be used to determine
the differences between similar geological structures.
|
72 |
[en] IMPACTS OF SOVEREIGN RATING CHANGES TO BRAZIL ON THE SHARES OF STATE-OWNED COMPANIES TRADED ON THE BRAZILIAN STOCK MARKET / [pt] IMPACTOS DE MUDANÇAS DE RATING SOBERANO DO BRASIL SOBRE AS AÇÕES DE EMPRESAS ESTATAIS NEGOCIADAS NO MERCADO ACIONÁRIO BRASILEIROFREDERICO RENAN SIMOES BRANDAO 23 March 2017 (has links)
[pt] Atualmente, com a intensificação da integração econômica e financeira dos mercados, o enfraquecimento das fronteiras nacionais e o significativo crescimento do comércio internacional, os investidores estão direcionando cada vez mais seus fluxos de capitais para os mercados externos, de forma a promover a diversificação internacional de suas carteiras, reduzindo o risco ao mesmo nível de retorno aos apresentados por carteiras puramente nacionais. É neste contexto de expansão internacional dos mercados e de elaboração de carteiras
internacionais que as informações referentes aos riscos de cada investimento se tornam ainda mais importantes. Neste sentido, visando suprir essas necessidades de informações, começaram a surgir no início do século XX as empresas privadas de rating com o propósito de fornecer as classificações de risco dos emissores de títulos, os ratings de crédito. Consequentemente, ao classificar o risco de um título, esses ratings possuem a capacidade de influenciar o mercado como um todo. Assim, esse trabalho objetiva verificar o impacto que as alterações de rating soberano brasileiro pelas agências especializadas produzem no mercado acionário brasileiro, mais especificamente no comportamento das ações de empresas estatais, visto que estas deveriam ser supostamente mais impactadas que as demais frente a essas revisões, tanto via resposta do mercado como um todo quanto ao fato de ter a percepção do risco de seu controlador diretamente alterado
por esses ratings. Para tanto, foi desenvolvido um estudo de evento, para analisar os efeitos verificados sobre os retornos de mercado (IBOVESPA) e das empresas estatais, nos períodos de downgrade e de upgrade. / [en] Currently, with the intensification of economic and financial integration of the markets, the weakening of national borders and the significant growth of international trade, investors are increasingly directing their capital flows towards external markets in order to promote international diversification of their portfolios, reducing the risk at the same level of return to those presented by purely domestic portfolios. It is in this context of international expansion of markets and of the development of international portfolios that the information regarding the risks of each investment becomes even more important. In this sense, in order to meet these information needs, the private rating companies began to emerge as early as the twentieth century, in order to provide risk ratings regarding the issuers of securities, credit ratings. Consequently, by classifying the risk of a security, these ratings have the ability to influence the market as a whole.
Thus, this study aims to investigate the impact that Brazilian sovereign rating changes by these specialized agencies have in the Brazilian stock market, specifically regarding the behavior of shares of state-owned companies, as these should supposedly be more affected than the others against sovereign risk
reviews, both through the market s response as a whole and by the fact that the perception of risk by their majority shareholder is directly altered by these ratings. To this end, an event study is conducted to analyze the effects seen on market returns (IBOVESPA) and state enterprises, in periods of downgrade and upgrade.
|
73 |
[en] REMOTE SENSING IMAGE CLASSIFICATION USING SVM / [pt] CLASSIFICAÇÃO DE IMAGENS DE SENSORIAMENTO REMOTO USANDO SVMRAPHAEL BELO DA SILVA MELONI 14 September 2017 (has links)
[pt] Classificação de imagens é o processo de extração de informação em imagens digitais para reconhecimento de padrões e objetos homogêneos, que em sensoriamento remoto propõe-se a encontrar padrões entre os pixels pertencentes a uma imagem digital e áreas da superfície terrestre, para uma análise posterior por um especialista. Nesta dissertação, utilizamos a metodologia de aprendizado de máquina support vector machines para o problema de classificação de imagens, devido a possibilidade de trabalhar com grande quantidades de características. Construímos classificadores para o problema, utilizando imagens distintas que contém as informações de espaços de cores RGB e HSB, dos valores altimétricos e do canal infravermelho de uma região. Os valores de relevo ou altimétricos contribuíram de forma excelente nos
resultados, uma vez que esses valores são características fundamentais de uma região e os mesmos não tinham sido analisados em classificação de imagens de sensoriamento remoto. Destacamos o resultado final, do problema de classificação de imagens, para o problema de identificação de piscinas com vizinhança dois. Os resultados obtidos são 99 por cento de acurácia, 100 por cento de precisão, 93,75 por cento de recall, 96,77 por cento de F-Score e 96,18 por cento de índice Kappa. / [en] Image Classification is an information extraction process in digital images for pattern and homogeneous objects recognition. In remote sensing it aims to find patterns from digital images pixels, covering an area of earth surface, for subsequent analysis by a specialist. In this dissertation, to this images classification problem we employ Support Vector Machines, a machine learning methodology, due the possibility of working with large quantities of features. We built classifiers to the problem using different image information, such as RGB and HSB color spaces, altimetric values and infrared channel of a region. The altimetric values contributed to excellent results, since these values are fundamental characteristics of a region and they were not previously considered in remote sensing images classification. We highlight the final result, for the identifying swimming pools problem, when neighborhood is two. The results have 99 percent accuracy, 100 percent precision, 93.75 percent of recall, 96.77 percent F-Score and 96.18 percent of Kappa index.
|
74 |
[en] ELABORATION OF A DECISION DIAGRAM AS AN ARTIFACT TO ASSIST IN THE DECISION OF THE INVENTORY CONTROL METHOD OF AN OIL AND GAS COMPANY / [pt] ELABORAÇÃO DE UM DIAGRAMA DE DECISÃO COMO ARTEFATO PARA AUXILIAR NA DECISÃO DO MÉTODO DE CONTROLE DE ESTOQUE DE UMA EMPRESA DO RAMO DE PETRÓLEO E GÁSCESAR CARDOZO AMARAL 23 December 2020 (has links)
[pt] A Gestão de Estoque eficiente permeia a escolha do método de controle mais adequado, principalmente em empresas que apresentem grande variedade de itens em estoque, quando a definição de métodos diferentes para cada item pode resultar em ganhos pela redução de excessos ou faltas, assim como pela redução de custos administrativos dessa gestão. A empresa estudada se insere nesse contexto,
pois apresenta excesso de materiais em estoque, bem como faltas de alguns itens, gerando prejuízos financeiros decorrentes da má gestão de seu estoque. Assim, por adotar a mesma política de controle de estoque para todos os itens, que abrangem de materiais de administração predial a equipamentos de exploração de petróleo e gás, essa empresa se depara com a necessidade de implementar controles de estoque mais adequados para cada um desses itens. Desse modo, este trabalho propõe responder a seguinte pergunta-chave de estudo: Qual a política de gestão de estoques mais adequada para cada produto analisado? Para responder a essa pergunta, o trabalho propõe a elaboração de um Diagrama de Decisão que auxilie na tomada dessa decisão. Para tanto, busca classificar esses SKU quanto a Curva
ABC para valor (RS), volume consumido e criticidade, sendo esta última definida com apoio do Analytic Hierarchy Process (AHP). Além disso, analisa as distribuições de demanda e de lead time de cada SKU como parâmetros para auxiliar nessa decisão, formando um diagrama onde os nós representam esses
parâmetros (Curva ABC, Demanda e Lead Time) e os caminhos correspondem as classificações internas de cada um desse parâmetros, apontando, ao final de cada caminho, qual o melhor controle de estoque para o SKU analisado considerando o Kanban e o MRP como alternativas. Aplicou-se a Design Science Research (DSR) como método de estudo. Com a aplicação desse método pretende-se que o Diagrama proposto seja um artefato capaz de atender as diferentes áreas de negócio da empresa, contribuindo para disseminação de uma ferramenta padrão para a tomada de decisão quanto ao método de controle de estoque a ser empregado para cada SKU. Assim, espera-se que o artefato proposto posso contribuir com todas as
áreas da empresa, ampliando o conhecimento gerado na área de negócio delimitada para este estudo. Por fim, o trabalho contribuiu com o desenvolvimento de uma ferramenta capaz de atender as necessidades da empresa quanto a adoção de diferentes métodos de controle de estoques, indiferentemente da área de negócio a qual se aplica. Além disso, na área delimitada para implementação deste estudo, a aplicação desse diagrama obteve a redução do excesso e das faltas para os SKU analisados, bem como apresentou forte potencial de redução de custos administrativos em função da possibilidade de adotar métodos mais simples de controle de estoque para alguns itens. / [en] Efficient Inventory Management permeates the choice of the most appropriate control method, especially in companies that have a wide variety of items in stock, when the definition of different methods for each item can result in gains by reducing excesses or shortages, as well as by reduction of administrative
costs of this management. The studied company is part of this context, as it presents an excess of materials in stock, as well as shortages of some items, generating financial losses resulting from the mismanagement of its stock. Thus, by adopting the same inventory control policy for all items, which range from building management materials to oil and gas exploration equipment, this company is faced
with the need to implement more adequate inventory controls for each of these tems. Thus, this paper proposes to answer the following key study question: What is the most adequate inventory management policy for each product analyzed? To answer this question, this work proposes the elaboration of a Decision Diagram that helps in making that decision. Therefore, it seeks to classify these SKU as the ABC
Curve for value (Rs), volume consumed and criticality, the latter being defined with the support of the Analytic Hierarchy Process (AHP). In addition, it analyzes the demand and lead time distributions of each SKU as parameters to assist in this decision, forming a diagram where the nodes represent these parameters (ABC curve, Demand and Lead Time) and the paths correspond to the internal classifications of each one of these parameters, pointing, at the end of each path, which is the best stock control for the SKU analyzed considering Kanban and MRP as alternatives. Design Science Research (DSR) was applied as a study method. With the application of this method, the proposed Diagram is intended to be an
artifact capable of serving the different business areas of the company, contributing to the dissemination of a standard tool for decision making regarding the inventory control method to be employed for each SKU. Thus, it is expected that the proposed artifact can contribute to all areas of the company, expanding. Finally, the work contributed to the development of a tool capable of meeting the company s needs
regarding the adoption of different inventory control methods, regardless of the business area to which it applies. In addition, in the area defined for the implementation of this study, the application of this diagram obtained the reduction of excess and shortages for the SKUs analyzed, as well as presenting a strong
potential for reducing administrative costs due to the possibility of adopting simpler methods of controlling stock for some items.
|
75 |
[en] EXPLAINABLE ARTIFICIAL INTELLIGENCE FOR MEDICAL IMAGE CLASSIFIERS / [pt] INTELIGÊNCIA ARTIFICIAL EXPLICÁVEL PARA CLASSIFICADORES DE IMAGENS MÉDICASIAM PALATNIK DE SOUSA 02 July 2021 (has links)
[pt] A inteligência artificial tem gerado resultados promissores na área médica, especialmente na última década. Contudo, os modelos de melhor desempenho apresentam opacidade em relação ao seu funcionamento interno. Nesta tese, são apresentadas novas metodologias e abordagens para o desenvolvimento de classificadores explicáveis de imagens médicas. Dois principais métodos, Squaregrid e EvEx, foram desenvolvidos. O primeiro consiste em uma geração mais grosseira, porém rápida, de heatmaps explicativos via segmentações em grades quadrados, enquanto o segundo baseia-se em otimização multi-objetivo, baseada em computação evolucionária, visando ao ajuste fino de parâmetros de segmentação. Notavelmente, ambas as técnicas são agnósticas ao modelo, o que facilita sua utilização para qualquer tipo de classificador de imagens. O potencial destas abordagens foi avaliado em três estudos de
caso de classificações médicas: metástases em linfonodos, malária e COVID-19. Para alguns destes casos foram analisados modelos de classificação existentes, publicamente disponíveis. Por outro lado, em outros estudos de caso, novos modelos tiveram que ser treinados. No caso do estudo de COVID-19,
a ResNet50 treinada levou a F-scores acima de 0,9 para o conjunto de teste de uma competição para classificação de coronavirus, levando ao terceiro lugar geral. Adicionalmente, técnicas de inteligência artificial já existentes como LIME e GradCAM, bem como Vanilla, Smooth e Integrated Gradients também
foram usadas para gerar heatmaps e possibilitar comparações. Os resultados aqui descritos ajudaram a demonstrar e preencher parcialmente lacunas associadas à integração das áreas de inteligência artificial explicável e medicina. Eles também ajudaram a demonstrar que as diferentes abordagens de inteligência
artificial explicável podem gerar heatmaps que focam em características diferentes da imagem. Isso por sua vez demonstra a importância de combinar abordagens para criar um panorama mais completo sobre os modelos classificadores, bem como extrair informações sobre o que estes aprendem. / [en] Artificial Intelligence has generated promissing results for the medical
area, especially on the last decade. However, the best performing models
present opacity when it comes to their internal working. In this thesis, methodologies
and approaches are presented for the develpoment of explainable classifiers
of medical images. Two main methods, Squaregrid and EvEx, were developed.
The first consistts in a rough, but fast, generation of heatmaps via
segmentations in square grids, and the second in genetic multi objective optimizations
aiming at the fine-tuning of segmentation parameters. Notably, both
techniques are agnostic to the model,which facilitates their utilization for any
kind of image classifier. The potential of these approaches was demonstrated in
three case studies of medical classifications: lymph node mestastases, malária
and COVID-19. In some of these cases, already existing classifier models were
analyzed, while in some others new models were trained. For the COVID-19
study, the trained ResNet50 provided F-scores above 0.9 in a test set from a
coronavirus classification competition, resulting in the third place overall. Additionally,
already existing explainable artificial intelligence techniques, such
as LIME and GradCAM, as well as Vanilla, Smooth and Integrated Gradients,
were also used to generate heatmaps and enable comparisons. The results here
described help to demonstrate and improve the gaps in integrating the areas of
explainable artificial intelligence and medicine. They also aided in demonstrating
that the different types of approaches in explainable artificial intelligence
can generate heatmaps that focus on different characteristics of the image.
This shows the importance of combining approaches to create a more complete
overview of classifier models, as well as extracting informations about
what they learned from data.
|
76 |
[pt] MODELOS NEURO-FUZZY HIERÁRQUICO BSP PARA CLASSIFICAÇÃO DE PADRÕES E EXTRAÇÃO DE REGRAS FUZZY EM BANCO DE DADOS. / [es] MODELOS NEURO-FUZZY JERÁRQUICO BSP PARA CLASIFICACIÓN DE PADRONES Y EXTRACCIÓN DE REGLAS FUZZY EN BASES DE DATOS / [en] NEURAL-FUZZY HIERARCHICAL MODELS FOR PATTERN CLASSIFICATION AND FUZZY RULE EXTRACTION FROM DATABASESLAERCIO BRITO GONCALVES 08 March 2001 (has links)
[pt] Esta dissertação investiga a utilização de sistemas Neuro-
Fuzzy Hierárquicos BSP (Binary Space Partitioning) para
classificação de padrões e para extração de regras fuzzy em
bases de dados. O objetivo do trabalho foi criar modelos
específicos para classificação de registros a partir do
modelo Neuro-Fuzzy Hierárquico BSP que é capaz de gerar sua
própria estrutura automaticamente e extrair regras fuzzy,
lingüisticamente interpretáveis, que explicam a estrutura
dos dados. O princípio da tarefa de classificação de
padrões é descobrir relacionamentos entre os dados com a
intenção de prever a classe de um padrão desconhecido.
O trabalho consistiu fundamentalmente de quatro partes: um
estudo sobre os principais métodos de classificação de
padrões; análise do sistema Neuro-Fuzzy Hierárquico BSP
(NFHB) original na tarefa de classificação; definição e
implementação de dois sistemas NFHB específicos para
classificação de padrões; e o estudo de casos.
No estudo sobre os métodos de classificação foi feito um
levantamento bibliográfico da área, resultando em um
"survey" onde foram apresentadas as principais técnicas
utilizadas para esta tarefa. Entre as principais técnicas
destacaram-se: os métodos estatísticos, algoritmos
genéticos, árvores de decisão fuzzy, redes neurais, e os
sistemas neuro-fuzzy.
Na análise do sistema NFHB na classificação de dados levou-
se em consideração as peculiaridades do modelo, que possui:
aprendizado da estrutura, particionamento recursivo do
espaço de entrada, aceita maior número de entradas que os
outros sistemas neuro-fuzzy, além de regras fuzzy
recursivas. O sistema NFHB, entretanto, não é um modelo
exatamente desenvolvido para classificação de padrões. O
modelo NFHB original possui apenas uma saída e para utilizá-
lo como um classificador é necessário criar um critério de
faixa de valores (janelas) para representar as classes.
Assim sendo, decidiu-se criar novos modelos que suprissem
essa deficiência.
Foram definidos dois novos sistemas NFHB para classificação
de padrões: NFHB-Invertido e NFHB-Class. O primeiro utiliza
a arquitetura do modelo NFHB original no aprendizado e em
seguida a inversão da mesma para a validação dos
resultados. A inversão do sistema consistiu de um meio de
adaptar o novo sistema à tarefa específica de
classificação, pois passou-se a ter o número de saídas do
sistema igual ao número de classes ao invés do critério de
faixa de valores utilizado no modelo NFHB original. Já o
sistema NFHB-Class utilizou, tanto para a fase de
aprendizado, quanto para a fase de validação, o modelo NFHB
original invertido. Ambos os sistemas criados possuem o
número de saídas igual ao número de classes dos padrões, o
que representou um grande diferencial em relação ao modelo
NFHB original. Além do objetivo de classificação de
padrões, o sistema NFHB-Class foi capaz de
extrair conhecimento em forma de regras fuzzy
interpretáveis. Essas regras são expressas da seguinte
maneira: SE x é A e y é B então padrão pertence à classe Z.
Realizou-se um amplo estudo de casos, abrangendo diversas
bases de dados Benchmark para a tarefa de classificação,
tais como: Iris Dataset, Wine Data, Pima Indians Diabetes
Database, Bupa Liver Disorders e Heart Disease, e foram
feitas comparações com diversos modelos e algoritmos de
classificação de padrões.
Os resultados encontrados com os modelos NFHB-Invertido e
NFHB-Class mostraram-se, na maioria dos casos, superiores
ou iguais aos melhores resultados encontrados pelos outros
modelos e algoritmos aos quais foram comparados.O
desempenho dos modelos NFHB-Invertido e NFHB-Class em
relação ao tempo de processamento também se mostrou muito
bom. Para todas as bases de dados descritas no estudo de
casos (capítulo 8), os modelos convergiram para uma ótima
solução de classificação, além da extração das regras
fuzzy, em / [en] This dissertation investigates the use of Neuro-Fuzzy
Hierarchical BSP (Binary Space
Partitioning) systems for pattern classification and
extraction of fuzzy rules in databases. The
objective of this work was to create specific models for
the classification of registers based on
the Neuro-Fuzzy BSP model that is able to create its
structure automatically and to extract
linguistic rules that explain the data structure. The task
of pattern classification is to find
relationships between data with the intention of
forecasting the class of an unknown pattern.
The work consisted of four parts: study about the main
methods of the pattern
classification; evaluation of the original Neuro-Fuzzy
Hierarchical BSP system (NFHB) in
pattern classification; definition and implementation of
two NFHB systems dedicated to
pattern classification; and case studies.
The study about classification methods resulted in a survey
on the area, where the
main techniques used for pattern classification are
described. The main techniques are:
statistic methods, genetic algorithms, decision trees,
neural networks, and neuro-fuzzy
systems.
The evaluation of the NFHB system in pattern classification
took in to consideration
the particularities of the model which has: ability to
create its own structure; recursive space
partitioning; ability to deal with more inputs than other
neuro-fuzzy system; and recursive
fuzzy rules. The original NFHB system, however, is unsuited
for pattern classification. The
original NFHB model has only one output and its use in
classification problems makes it
necessary to create a criterion of band value (windows) in
order to represent the classes.
Therefore, it was decided to create new models that could
overcome this deficiency.
Two new NFHB systems were developed for pattern
classification: NFHB-Invertido
and NFHB-Class. The first one creates its structure using
the same learning algorithm of the
original NFHB system. After the structure has been created,
it is inverted (see chapter 5) for
the generalization process. The inversion of the structure
provides the system with the number
of outputs equal to the number of classes in the database.
The second system, the NFHB-Class
uses an inverted version of the original basic NFHB cell in
both phases, learning and
validation. Both systems proposed have the number of
outputs equal to the number of the
pattern classes, what means a great differential in
relation to the original NFHB model.
Besides the pattern classification objective, the NFHB-
Class system was able to extract
knowledge in form of interpretable fuzzy rules. These rules
are expressed by this way: If x is
A and y is B then the pattern belongs to Z class.
The two models developed have been tested in many case
studies, including
Benchmark databases for classification task, such as: Iris
Dataset, Wine Data, Pima Indians
Diabetes Database, Bupa Liver Disorders and Heart Disease,
where comparison has been
made with several traditional models and algorithms of
pattern classification.
The results found with NFHB-Invertido and NFHB-Class
models, in all cases, showed
to be superior or equal to the best results found by the
others models and algorithms for
pattern classification. The performance of the NFHB-
Invertido and NFHB-Class models in
terms of time-processing were also very good. For all
databases described in the case studies
(chapter 8), the models converged to an optimal
classification solution, besides the fuzzy rules
extraction, in a time-processing inferior to a minute. / [es] Esta disertación investiga el uso de sistemas Neuro- Fuzzy
Herárquicos BSP (Binary Space Partitioning) en problemas de
clasificación de padrones y de extracción de reglas fuzzy
en bases de datos. El objetivo de este trabajo fue crear
modelos específicos para clasificación de registros a
partir del modelo Neuro-Fuzzy Jerárquico BSP que es capaz
de generar automáticamente su propia extructura y extraer
reglas fuzzy, lingüisticamente interpretables, que explican
la extructura de los datos. El principio de la
clasificación de padrones es descubrir relaciones entre los
datos con la intención de prever la clase de un padrón
desconocido. El trabajo está constituido por cuatro partes:
un estudio sobre los principales métodos de clasificación
de padrones; análisis del sistema Neuro-Fuzzy Jerárquico
BSP (NFHB) original en la clasificación; definición e
implementación de dos sistemas NFHB específicos para
clasificación de padrones; y el estudio de casos. En el
estudio de los métodos de clasificación se realizó un
levatamiento bibliográfico, creando un "survey" donde se
presentan las principales técnicas utilizadas. Entre las
principales técnicas se destacan: los métodos estadísticos,
algoritmos genéticos, árboles de decisión fuzzy, redes
neurales, y los sistemas neuro-fuzzy. En el análisis del
sistema NFHB para clasificación de datos se tuvieron en
cuenta las peculiaridades del modelo, que posee :
aprendizaje de la extructura, particionamiento recursivo
del espacio de entrada, acepta mayor número de entradas que
los otros sistemas neuro-fuzzy, además de reglas fuzzy
recursivas. El sistema NFHB, sin embargo, no es un modelo
exactamente desarrollado para clasificación de padrones. El
modelo NFHB original posee apenas una salida y para
utilizarlo conmo un clasificador fue necesario crear un
criterio de intervalos de valores (ventanas) para
representar las clases. Así, se decidió crear nuevos
modelos que supriman esta deficiencia. Se definieron dos
nuevos sistemas NFHB para clasificación de padrones: NFHB-
Invertido y NFHB-Clas. El primero utiliza la arquitectura
del modelo NFHB original en el aprendizaje y en seguida la
inversión de la arquitectura para la validación de los
resultados. La inversión del sistema es un medio para
adaptar el nuevo sistema, específicamente a la
clasificación, ya que el sistema pasó a tener número de
salidas igual al número de clases, al contrario del
criterio de intervalo de valores utilizado en el modelo
NFHB original. En el sistema NFHB-Clas se utilizó, tanto
para la fase de aprendizajeo, cuanto para la fase de
validación, el modelo NFHB original invertido. Ambos
sistemas poseen el número de salidas igual al número de
clases de los padrones, lo que representa una gran
diferencia en relación al modelo NFHB original. Además del
objetivo de clasificación de padrones, el sistema NFHB-Clas
fue capaz de extraer conocimento en forma de reglas fuzzy
interpretables. Esas reglas se expresan de la siguiente
manera: Si x es A e y es B entonces el padrón pertenece a
la clase Z. Se realizó un amplio estudio de casos,
utilizando diversas bases de datos Benchmark para la
clasificación, tales como: Iris Dataset, Wine Data, Pima
Indians Diabetes Database, Bupa Liver Disorders y Heart
Disease. Los resultados se compararon con diversos modelos
y algoritmos de clasificación de padrones. Los resultados
encontrados con los modelos NFHB-Invertido y NFHB-Clas se
mostraron, en la mayoría de los casos, superiores o iguales
a los mejores resultados encontrados por los otros modelos
y algoritmos con los cuales fueron comparados. El desempeño
de los modelos NFHB-Invertido y NFHB-Clas en relación al
tiempo de procesamiento tambiém se mostró muy bien. Para
todas las bases de datos descritas en el estudio de casos
(capítulo 8), los modelos convergieron para una solución
óptima, además de la extracción de las reglas fuzzy, con
tiemp
|
77 |
[en] A FRAMEWORK FOR AUTOMATED VISUAL INSPECTION OF UNDERWATER PIPELINES / [pt] UM FRAMEWORK PARA INSPEÇÃO VISUAL AUTOMATIZADA DE DUTOS SUBAQUÁTICOSEVELYN CONCEICAO SANTOS BATISTA 30 January 2024 (has links)
[pt] Em ambientes aquáticos, o uso tradicional de mergulhadores ou veiculos
subaquáticos tripulados foi substituído por veículos subaquáticos não tripulados (como ROVs ou AUVs). Com vantagens em termos de redução de riscos
de segurança, como exposição à pressão, temperatura ou falta de ar. Além
disso, conseguem acessar áreas de extrema profundidade que até então não
eram possiveis para o ser humano.
Esses veiculos não tripulados são amplamente utilizados para inspeções
como as necessárias para o descomissionamento de plataformas de petróleo
Neste tipo de fiscalização é necessário analisar as condições do solo, da tu-
bulação e, principalmente, se foi criado um ecossistema próximo à tubulação.
Grande parte dos trabalhos realizados para a automação desses veículos utilizam diferentes tipos de sensores e GPS para realizar a percepção do ambiente.
Devido à complexidade do ambiente de navegação, diferentes algoritmos de
controle e automação têm sido testados nesta área, O interesse deste trabalho
é fazer com que o autômato tome decisões através da análise de eventos visuais.
Este método de pesquisa traz a vantagem de redução de custos para o projeto,
visto que as câmeras possuem um preço inferior em relação aos sensores ou
dispositivos GPS.
A tarefa de inspeção autônoma tem vários desafios: detectar os eventos,
processar as imagens e tomar a decisão de alterar a rota em tempo real. É
uma tarefa altamente complexa e precisa de vários algoritmos trabalhando
juntos para ter um bom desempenho. A inteligência artificial apresenta diversos
algoritmos para automatizar, como os baseados em aprendizagem por reforço
entre outros na área de detecção e classificação de imagens
Esta tese de doutorado consiste em um estudo para criação de um sistema
avançado de inspeção autônoma. Este sistema é capaz de realizar inspeções
apenas analisando imagens da câmera AUV, usando aprendizagem de reforço profundo profundo para otimizar o planejamento do ponto de vista e técnicas de detecção de novidades. Contudo, este quadro pode ser adaptado a muitas outras tarefas de inspecção.
Neste estudo foram utilizados ambientes realistas complexos, nos quais o
agente tem o desafio de chegar da melhor forma possível ao objeto de interesse
para que possa classificar o objeto. Vale ressaltar, entretanto, que os ambientes
de simulação utilizados neste contexto apresentam certo grau de simplicidade
carecendo de recursos como correntes marítimas on dinâmica de colisão em
seus cenários simulados
Ao final deste projeto, o Visual Inspection of Pipelines (VIP) framework
foi desenvolvido e testado, apresentando excelentes resultados e ilustrando
a viabilidade de redução do tempo de inspeção através da otimização do
planejamento do ponto de vista. Esse tipo de abordagem, além de agregar
conhecimento ao robô autônomo, faz com que as inspeções subaquáticas exijam
pouca presença de ser humano (human-in-the-loop), justificando o uso das
técnicas empregadas. / [en] In aquatic environments, the traditional use of divers or manned underwater
vehicles has been replaced by unmanned underwater vehicles (such as
ROVs or AUVs). With advantages in terms of reducing safety risks, such as
exposure to pressure, temperature or shortness of breath. In addition, they are
able to access areas of extreme depth that were not possible for humans until
then.
These unmanned vehicles are widely used for inspections, such as those
required for the decommissioning of oil platforms. In this type of inspection, it
is necessary to analyze the conditions of the soil, the pipeline and, especially,
if an ecosystem was created close to the pipeline. Most of the works carried
out for the automation of these vehicles use different types of sensors and
GPS to perform the perception of the environment. Due to the complexity of
the navigation environment, different control and automation algorithms have
been tested in this area. The interest of this work is to make the automaton
take decisions through the analysis of visual events. This research method provides the advantage of cost reduction for the project, given that cameras have a lower price compared to sensors or GPS devices.
The autonomous inspection task has several challenges: detecting the
events, processing the images and making the decision to change the route in
real time. It is a highly complex task and needs multiple algorithms working
together to perform well. Artificial intelligence presents many algorithms to
automate, such as those based on reinforcement learning, among others in the
area of image detection and classification.
This doctoral thesis consists of a study to create an advanced autonomous
inspection system. This system is capable of performing inspections only by
analyzing images from the AUV camera, using deep reinforcement learning,
and novelty detection techniques. However, this framework can be adapted to
many other inspection tasks.
In this study, complex realistic environments were used, in which the
agent has the challenge of reaching the object of interest in the best possible
way so that it can classify the object.
It is noteworthy, however, that the simulation environments utilized in this context exhibit a certain degree of
simplicity, lacking features like marine currents or collision dynamics in their
simulated scenarios.
At the conclusion of this project, a Visual Inspection of Pipelines (VIP)
framework was developed and tested, showcasing excellent results and illustrating the feasibility of reducing inspection time through the optimization of
viewpoint planning. This type of approach, in addition to adding knowledge to
the autonomous robot, means that underwater inspections require little pres-
ence of a human being (human-in-the-loop), justifying the use of the techniques
employed.
|
78 |
[en] PORTFOLIO SELECTION USING ROBUST OPTIMIZATION AND SUPPORT VECTOR MACHINE (SVM) / [pt] SELEÇÃO DE PORTFÓLIO USANDO OTIMIZAÇÃO ROBUSTA E MÁQUINAS DE SUPORTE VETORIALROBERTO PEREIRA GARCIA JUNIOR 26 October 2021 (has links)
[pt] A dificuldade de se prever movimento de ativos financeiros é objeto
de estudo de diversos autores. A fim de se obter ganhos, se faz necessário
estimar a direção (subida ou descida) e a magnitude do retorno do ativo
no qual pretende-se comprar ou vender. A proposta desse trabalho consiste
em desenvolver um modelo de otimização matemática com variáveis
binárias capaz de prever movimentos de subidas e descidas de ativos financeiros
e utilizar um modelo de otimização de portfólio para avaliar os
resultados obtidos. O modelo de previsão será baseado no Support Vector
Machine (SVM), no qual faremos modificações na regularização do modelo
tradicional. Para o gerenciamento de portfólio será utilizada otimização robusta.
As técnicas de otimização estão sendo cada vez mais aplicadas no
gerenciamento de portfólio, pois são capazes de lidar com os problemas das
incertezas introduzidas na estimativa dos parâmetros. Vale ressaltar que o
modelo desenvolvido é data-driven, i.e, as previsões são feitas utilizando sinais
não-lineares baseados em dados de retorno/preço histórico passado sem
ter nenhum tipo de intervenção humana.
Como os preços dependem de muitos fatores é de se esperar que um
conjunto de parâmetros só consiga descrever a dinâmica dos preços dos
ativos financeiros por um pequeno intervalo de dias. Para capturar de forma
mais precisa essa mudança na dinâmica, a estimação dos parâmetros dos
modelos é feita em janela móvel.
Para testar a acurácia dos modelos e os ganhos obtidos foi feito um estudo de
caso utilizando 6 ativos financeiros das classes de moedas, renda fixa, renda
variável e commodities. Os dados abrangem o período de 01/01/2004 até
30/05/2018 totalizando um total de 3623 cotações diárias. Considerando
os custos de transações e os resultados out-of-sample obtidos no período
analisado percebe-se que a carteira de investimentos desenvolvida neste
trabalho exibe resultados superiores aos dos índices tradicionais com risco
limitado. / [en] The difficulty of predicting the movement of financial assets is the
subject of study by several authors. In order to obtain gains, it is necessary
to estimate the direction (rise or fall) and the magnitude of the return on
the asset in which it is intended to be bought or sold. The purpose of this
work is to develop a mathematical optimization model with binary variables
capable of predicting up and down movements of financial assets and using
a portfolio optimization model to evaluate the results obtained. The prediction
model will be based on the textit Support Vector Machine (SVM),
in which we will make modifications in the regularization of the traditional
model. For the portfolio management will be used robust optimization. The
robust optimization techniques are being increasingly applied in portfolio
management, since they are able to deal with the problems of the uncertainties
introduced in the estimation of the parameters. It is noteworthy that
the developed model is data-driven, i.e., the predictions are made using
nonlinear signals based on past historical price / return data without any
human intervention. As prices depend on many factors it is to be expected that a set of
parameters can only describe the dynamics of the prices of financial assets
for a small interval of days. In order to more accurately capture this change
in dynamics, the estimation of model parameters is done in a moving window
To test the accuracy of the models and the gains obtained, a case study
was made using 6 financial assets of the currencies, fixed income, variable
income and commodities classes. The data cover the period from 01/01/2004
until 05/30/2018 totaling a total of 3623 daily quotations. Considering the
transaction costs and out-of-sample results obtained in the analyzed period,
it can be seen that the investment portfolio developed in this work shows
higher results than the traditional indexes with limited risk.
|
79 |
[pt] EXTRAÇÃO DE INFORMAÇÕES DE SENTENÇAS JUDICIAIS EM PORTUGUÊS / [en] INFORMATION EXTRACTION FROM LEGAL OPINIONS IN BRAZILIAN PORTUGUESEGUSTAVO MARTINS CAMPOS COELHO 03 October 2022 (has links)
[pt] A Extração de Informação é uma tarefa importante no domínio jurídico.
Embora a presença de dados estruturados seja escassa, dados não estruturados na forma de documentos jurídicos, como sentenças, estão amplamente
disponíveis. Se processados adequadamente, tais documentos podem fornecer
informações valiosas sobre processos judiciais anteriores, permitindo uma melhor avaliação por profissionais do direito e apoiando aplicativos baseados em
dados. Este estudo aborda a Extração de Informação no domínio jurídico, extraindo valor de sentenças relacionados a reclamações de consumidores. Mais
especificamente, a extração de cláusulas categóricas é abordada através de
classificação, onde seis modelos baseados em diferentes estruturas são analisados. Complementarmente, a extração de valores monetários relacionados a
indenizações por danos morais é abordada por um modelo de Reconhecimento
de Entidade Nomeada. Para avaliação, um conjunto de dados foi criado, contendo 964 sentenças anotados manualmente (escritas em português) emitidas
por juízes de primeira instância. Os resultados mostram uma média de aproximadamente 97 por cento de acurácia na extração de cláusulas categóricas, e 98,9 por cento
na aplicação de NER para a extração de indenizações por danos morais. / [en] Information Extraction is an important task in the legal domain. While
the presence of structured and machine-processable data is scarce, unstructured data in the form of legal documents, such as legal opinions, is largely
available. If properly processed, such documents can provide valuable information with regards to past lawsuits, allowing better assessment by legal professionals and supporting data-driven applications. This study addresses Information Extraction in the legal domain by extracting value from legal opinions
related to consumer complaints. More specifically, the extraction of categorical
provisions is addressed by classification, where six models based on different
frameworks are analyzed. Moreover, the extraction of monetary values related
to moral damage compensations is addressed by a Named Entity Recognition
(NER) model. For evaluation, a dataset was constructed, containing 964 manually annotated legal opinions (written in Brazilian Portuguese) enacted by
lower court judges. The results show an average of approximately 97 percent of accuracy when extracting categorical provisions, and 98.9 percent when applying NER
for the extraction of moral damage compensations.
|
80 |
[en] TEXT CATEGORIZATION: CASE STUDY: PATENT S APPLICATION DOCUMENTS IN PORTUGUESE / [pt] CATEGORIZAÇÃO DE TEXTOS: ESTUDO DE CASO: DOCUMENTOS DE PEDIDOS DE PATENTE NO IDIOMA PORTUGUÊSNEIDE DE OLIVEIRA GOMES 08 January 2015 (has links)
[pt] Atualmente os categorizadores de textos construídos por técnicas de
aprendizagem de máquina têm alcançado bons resultados, tornando viável a
categorização automática de textos. A proposição desse estudo foi a definição de
vários modelos direcionados à categorização de pedidos de patente, no idioma
português. Para esse ambiente foi proposto um comitê composto de 6 (seis)
modelos, onde foram usadas várias técnicas. A base de dados foi constituída de
1157 (hum mil cento e cinquenta e sete) resumos de pedidos de patente,
depositados no INPI, por depositantes nacionais, distribuídos em várias
categorias. Dentre os vários modelos propostos para a etapa de processamento da
categorização de textos, destacamos o desenvolvido para o Método 01, ou seja, o
k-Nearest-Neighbor (k-NN), modelo também usado no ambiente de patentes, para
o idioma inglês. Para os outros modelos, foram selecionados métodos que não os
tradicionais para ambiente de patentes. Para quatro modelos, optou-se por
algoritmos, onde as categorias são representadas por vetores centróides. Para um
dos modelos, foi explorada a técnica do High Order Bit junto com o algoritmo k-
NN, sendo o k todos os documentos de treinamento. Para a etapa de préprocessamento
foram implementadas duas técnicas: os algoritmos de stemização
de Porter; e o StemmerPortuguese; ambos com modificações do original. Foram
também utilizados na etapa do pré-processamento: a retirada de stopwords; e o
tratamento dos termos compostos. Para a etapa de indexação foi utilizada
principalmente a técnica de pesagem dos termos intitulada: frequência de termos
modificada versus frequência de documentos inversa TF -IDF . Para as medidas
de similaridade ou medidas de distância destacamos: cosseno; Jaccard; DICE;
Medida de Similaridade; HOB. Para a obtenção dos resultados foram usadas as
técnicas de predição da relevância e do rank. Dos métodos implementados nesse
trabalho, destacamos o k-NN tradicional, o qual apresentou bons resultados
embora demande muito tempo computacional. / [en] Nowadays, the text s categorizers constructed based on learning techniques,
had obtained good results and the automatic text categorization became viable.
The purpose of this study was the definition of various models directed to text
categorization of patent s application in Portuguese language. For this
environment was proposed a committee composed of 6 (six) models, where were
used various techniques. The text base was constituted of 1157 (one thousand one
hundred fifty seven) abstracts of patent s applications, deposited in INPI, by
national applicants, distributed in various categories. Among the various models
proposed for the step of text categorization s processing, we emphasized the one
devellopped for the 01 Method, the k-Nearest-Neighbor (k-NN), model also used
in the English language patent s categorization environment. For the others
models were selected methods, that are not traditional in the English language
patent s environment. For four models, there were chosen for the algorithms,
centroid vectors representing the categories. For one of the models, was explored
the High Order Bit technique together with the k-NN algorithm, being the k all the
training documents. For the pre-processing step, there were implemented two
techniques: the Porter s stemization algorithm; and the StemmerPortuguese
algorithm; both with modifications of the original. There were also used in the
pre-processing step: the removal of the stopwards; and the treatment of the
compound terms. For the indexing step there was used specially the modified
documents term frequency versus documents term inverse frequency TF-IDF .
For the similarity or distance measures there were used: cosine; Jaccard; DICE;
Similarity Measure; HOB. For the results, there were used the relevance and the
rank technique. Among the methods implemented in this work it was emphasized
the traditional k-NN, which had obtained good results, although demands much
computational time.
|
Page generated in 0.0319 seconds