Spelling suggestions: "subject:"classificacao"" "subject:"classificacão""
111 |
[en] KNOWLEDGE-BASED INTERPRETATION OF HIGH RESOLUTION REMOTE SENSING IMAGES / [pt] INTERPRETAÇÃO BASEADA EM CONHECIMENTO DE IMAGENS DE SENSORES REMOTOS DE ALTA RESOLUÇÃOTHIAGO BROERMAN CAZES 21 March 2006 (has links)
[pt] A cada dia mais e mais satélites de alta resolução têm se
tornado disponíveis,
criando grande demanda por novos métodos de interpretação
baseados em
conhecimento. Estes métodos emulam parcialmente o trabalho
do especialista em
análise visual de imagens. Nesse contexto, o presente
trabalho apresenta um modelo de
classificação baseado no conhecimento do especialista
aplicado a imagens de alta
resolução. O modelo de interpretação consiste de três
fases. A primeira inclui o
conhecimento espectral e a informação de textura. Na
segunda fase dados de SIG
(sistema de informação geográfico) são combinados com o
resultado da análise
espectral através de regras nebulosas. Na terceira e
última fase é introduzido o
conhecimento multitemporal através de uma estimativa das
possibilidades de transição
entre classes de uma mesma área em um dado intervalo de
tempo. Para validação desse
modelo experimentos foram realizados em imagens IKONOS e
fotos aéreas de 1999,
2001 e de 2002 da área do Parque Estadual da Pedra Branca,
que é um importante
fragmento da Floresta Atlântica situado no estado do Rio
de Janeiro, Brasil. / [en] New high resolution satellites for commercial purposes
became available in the
few years. This increases the need of new automatic
knowledge based image
interpretation methods. Such methods partially emulate the
reasoning of an image
analyst during the visual image interpretation. The
present work falls into this context
and proposes an automatic classification model for high
resolution remotely sensed
images. The model consists of three stages. In the first
stage only spectral and textural
information are used for classification. In the second
stage GIS (geographic information
system) data are combined with the result of the spectral
analysis by means of fuzzy
rules. In the third stage the multitemporal knowledge is
introduced by estimating class
transition possibilities within a given time span. To
validate the proposed model
experiments were performed based on IKONOS images from
2001 and 2002 as well as
aerial photos from 1999 of the Pedra Branca Park, which is
an important Atlantic Forest
fragment in the State Rio de Janeiro in Southeast Brazil.
|
112 |
[en] ON THE APPLICATION OF SIGNAL ANALYSIS TECHNIQUES TO REAL TIME COMMUNICATION AND CLASSIFICATION / [pt] TÉCNICAS APLICADAS À COMUNICAÇÃO EM TEMPO REAL E À SUA CLASSIFICAÇÃOBRUNO COSENZA DE CARVALHO 12 March 2003 (has links)
[pt] A técnica de análise de sinais corrompidos por ruído
baseada no comportamento de subespaços vetoriais foi tema
de alguns trabalhos publicados desde o início da década de
80. Esta nova técnica passou a ter grande importância
no processamento de sinais digitais devido a fatores como
robustez e precisão.Porém, o maior problema associado a
este novo método é o seu elevado custo computacional. Esta
característica limitou o emprego da técnica em sistemas -
offline - . A preocupação então passou a ser rastrear a
variação do comportamento dos subespaços vetoriais de modo
eficiente. O objetivo deste rastreamento seria o emprego da
técnica em alguns sistemas que operam em tempo real. Este
trabalho de tese propõe um novo algoritmo de rastreamento
de subespaços vetoriais. O objetivo é apresentar um
algoritmo que demonstre um bom desempenho, com
relação aos demais já existentes, permitindo eventual
aplicação em sistemas que atuem em tempo real. Como
contribuição adicional, são apresentadas uma nova análise e
caracterização de sistemas que se assemelham aos
circulantes, sendo para isto reinterpretada a decomposição
de matrizes circulantes. O conjunto de contribuições é
aplicado a um novo sistema automático de classificação de
sinais comunicação, quanto ao tipo de modulação. / [en] The signal subspace analysis technique, usually applied to
signals corrupted by noise, is theme of some papers since
the beginning of the 80s decade. This new technique has
presented important features, as robustness and precision,
and became widely employed in digital signal processing.
However, the main problem associated to this new method is
the high computational cost. This characteristic
has restricted the use of signal subspace analysis to some
off-line systems. A possible way to overcome this burden
was to track the signal and noise subspace behavior in the
time-domain. The main objective of these methods is to
allow the signal subspace analysis technique application to
real time systems, sometimes at the expense of limiting
analysis precision or scope. This work proposes a new
subspace tracking procedure. The goal is to describe a new
algorithm with good performance (precision-speed), allowing
some real time systems applications. A new analysis and
characterization of almost circulant systems is introduced
by reinterpreting the circulating matrix decomposition
scheme. The set of contributions is applied to a new
analogue modulation communication signals automatic
recognition structure.
|
113 |
[en] DATA SELECTION FOR LVQ / [pt] SELEÇÃO DE DADOS EM LVQRODRIGO TOSTA PERES 20 September 2004 (has links)
[pt] Nesta dissertação, propomos uma metodologia para seleção de
dados em
modelos de Aprendizado por Quantização Vetorial,
referenciado amplamente na
literatura pela sigla em inglês LVQ. Treinar um modelo
(ajuste dentro-daamostra)
com um subconjunto selecionado a partir do conjunto de dados
disponíveis para o aprendizado pode trazer grandes
benefícios no resultado de
generalização (fora-da-amostra). Neste sentido, é muito
importante realizar uma
busca para selecionar dados que, além de serem
representativos de suas
distribuições originais, não sejam ruído (no sentido
definido ao longo desta
dissertação). O método proposto procura encontrar os pontos
relevantes do
conjunto de entrada, tendo como base a correlação do erro
de cada ponto com o
erro do restante da distribuição. Procura-se, em geral,
eliminar considerável parte
do ruído mantendo os pontos que são relevantes para o
ajuste do modelo
(aprendizado). Assim, especificamente em LVQ, a atualização
dos protótipos
durante o aprendizado é realizada com um subconjunto do
conjunto de
treinamento originalmente disponível. Experimentos
numéricos foram realizados
com dados simulados e reais, e os resultados obtidos foram
muito interessantes,
mostrando claramente a potencialidade do método proposto. / [en] In this dissertation, we consider a methodology for
selection of data in
models of Learning Vector Quantization (LVQ). The
generalization can be
improved by using a subgroup selected from the available
data set. We search the
original distribution to select relevant data that aren't
noise. The search aims at
relevant points in the training set based on the
correlation between the error of
each point and the average of error of the remaining data.
In general, it is desired
to eliminate a considerable part of the noise, keeping the
points that are relevant
for the learning model. Thus, specifically in LVQ, the
method updates the
prototypes with a subgroup of the originally available
training set. Numerical
experiments have been done with simulated and real data.
The results were very
interesting and clearly indicated the potential of the
method.
|
114 |
[en] CONTROL OF A ROBOTIC HAND USING SURFACE ELECTROMYOGRAPHIC SIGNALS / [pt] CONTROLE DE UMA MÃO ROBÓTICA ACIONADA POR SINAIS ELETROMIOGRÁFICOS DE SUPERFÍCIECARLOS GERARDO PAUCAR MALQUI 07 March 2017 (has links)
[pt] Esta dissertação propõe um sistema de controle de uma mão robótica
utilizando sinais eletromiográficos de superfície (sEMG). Os sinais sEMG
são coletados de três diferentes grupos musculares do antebraço superior:
músculo palmar longo, músculo extensor dos dedos, e músculo extensor
radial longo do carpo. O objetivo dessa pesquisa é o desenvolvimento
de um protótipo de uma prótese robótica para pessoas que apresentam
amputação da mão, controlado por uma interface eletromiográfica baseada
em inteligência computacional. Este trabalho abrange os seguintes tópicos:
posicionamento dos eletrodos para capturar os sinais sEMG, projeto de
um sistema de eletromiografia como interface muscular, método de pré processamento
de sinais, uso de técnicas de inteligência computacional
para a interpretação dos sinais sEMG, projeto da mão robótica, e método
de controle utilizado para controlar as posições dos dedos e o controle
da força da mão. Nesta dissertação é utilizada a transformada wavelet
como método de extração de características nos sinais eletromiográficos,
e uma rede neural multicamada como método de classificação de padrões.
O modelo proposto apresentou resultados satisfatórios, conseguindo 90,5 por cento
de classificação correta dos padrões para o reconhecimento de 6 posturas
diferentes da mão, 94,3 por cento para 5 posturas, e 96,25 por cento para 4 posturas. / [en] This thesis proposes the control of a robotic hand system using surface
electromyographic signals (sEMG). The sEMG signals are collected
from three different muscle groups of the upper forearm: palmaris longus
muscle, extensor digitorum communis muscle, and extensor carpi radialis
longus muscle. The objective of this research is to develop a prototype
of a robotic prosthesis for people with hand amputation, controlled by
an electromyographic interface based on computational intelligence. This
thesis covers the following topics: positioning of electrodes to capture the
sEMG signals, design of an electromyography muscle interface, preprocessing
method, use of techniques of computational intelligence for the interpretation
of the sEMG signals, design of the robotic hand, and method
used to control the positions of the fingers and of the hand grip force.
Here, the wavelet transform is used as a feature extraction method in electromyographic
signals, and a multi-layer neural network as a pattern classification
method. The proposed model obtained satisfactory results, recognizing
90.5 per cent of the positions for 6 different hand patterns, 94.3 per cent for 5, and
96.25 per cent for 4 positions.
|
115 |
[en] CLASSIFICATION OF OBJECTS IN REAL CONTEXT BY CONVOLUTIONAL NEURAL NETWORKS / [pt] CLASSIFICAÇÃO DE OBJETOS EM CONTEXTO REAL POR REDES NEURAIS CONVOLUTIVASLUIS MARCELO VITAL ABREU FONSECA 08 June 2017 (has links)
[pt] A classificação de imagens em contexto real é o ápice tecnológico do reconhecimento de objetos. Esse tipo de classificação é complexo, contendo diversos problemas de visão computacional em abundância. Este projeto
propõe solucionar esse tipo de classificação através do uso do conhecimento no aprendizado de máquina aplicado ao dataset do MS COCO. O algoritmo implementado neste projeto consiste de um modelo de Rede Neural Convolutiva que consegue aprender características dos objetos e realizar predições sobre suas classes. São elaborados alguns experimentos que comparam diferentes resultados de predições a partir de diferentes técnicas de aprendizado. É também realizada uma comparação dos resultados da implementação com o estado da arte na segmentação de objetos em contexto. / [en] The classification of objects in real contexts is the technological apex of object recognition. This type of classification is complex, containing diverse computer vision problems in abundance. This project proposes
to solve that type of classification through the use of machine learning knowledge applied to the MS COCO dataset. The implemented algorithm in this project consists of a Convolutional Neural Network model that
is able to learn characteristics of the objects and predict their classes. Some experiments are made that compare different results of predictions using different techniques of learning. There is also a comparison of the results from the implementation with state of art in contextual objects segmentation.
|
116 |
[pt] CLASSIFICAÇÃO DE FALHAS DE EQUIPAMENTOS DE UNIDADE DE INTERVENÇÃO EM CONSTRUÇÃO DE POÇOS MARÍTIMOS POR MEIO DE MINERAÇÃO TEXTUAL / [en] TEXT CLASSIFICATION OF OFFSHORE RIG EQUIPMENT FAILURE07 April 2020 (has links)
[pt] A construção de poços marítimos tem se mostrado uma atividade complexa
e de alto risco. Para efetuar esta atividade as empresas se valem principalmente
das unidades de intervenção de poços, também conhecidas como sondas. Estas
possuem altos valores de taxas diárias de uso devido à manutenção preventiva da
unidade em si, mas também por falhas as quais seus equipamentos estão sujeitos.
No cenário específico da Petrobras, em junho de 2011, foi implantado no banco de
dados da empresa um maior detalhamento na classificação das falhas de
equipamentos de sonda. Com isso gerou-se uma descontinuidade nos registros da
empresa e a demanda para adequar estes casos menos detalhados à classificação
atual, mais completa. Os registros são compostos basicamente de informação
textual. Para um passivo de 3384 registros, seria inviável alocar uma pessoa para
classificá-los. Com isso vislumbrou-se uma ferramenta que pudesse efetuar esta
classificação da forma mais automatizada possível, utilizando os registros feitos
após junho de 2011 como base. O objetivo principal deste trabalho é de sanar esta
descontinuidade nos registros de falha de equipamentos de sonda. Os dados foram
tratados e transformados por meio de ferramentas de mineração textual bem como
processados pelo algoritmo de aprendizado supervisionado SVM (Support Vector
Machines). Ao final, após obter a melhor configuração do modelo, este foi
aplicado às informações textuais do passivo de anormalidades, atribuindo suas
classes de acordo com o novo sistema de classificação. / [en] Off-shore well construction has shown to be a complex and risky activity. In
order to build off-shore wells, operators rely mainly on off-shore rigs. These rigs
have an expensive day rate, related to their rental and maintenance, but also due to
their equipment failure. At off-shore Petrobras scenario, on June of 2011, was
implemented at the company database a better detailing on the classification of rig
equipment failure. That brought a discontinuity to the database records and
created a demand for adequacy of the former classification to the new
classification structure. Basically, rig equipment failure records are based on
textual information. For a liability of 3384 records, it was unable for one person to
manage the task. Therefore, an urge came for a tool that could classify these
records automatically, using database records already classified under the new
labels. The main purpose of this work is to overcome this database discontinuity.
Data was treated and transformed through text mining tools and then processed by
supervised learning algorithm SVM (Support Vector Machines). After obtaining
the best model configuration, the old records were submitted under this model and
were classified according to the new classification structure.
|
117 |
[en] IDENTIFICATION AND EPIDEMIOLOGICAL SURVEILLANCE OF BACTERIA: WEB SYSTEM DEVELOPMENT AND EVALUATION OF INTELLIGENT METHODS / [pt] IDENTIFICAÇÃO E RASTREAMENTO EPIDEMIOLÓGICO DE BACTÉRIAS: DESENVOLVIMENTO DE SISTEMA WEB E AVALIAÇÃO DE MÉTODOS INTELIGENTES05 November 2021 (has links)
[pt] A maioria dos laboratórios não conta com um sistema informatizado para gestão dos procedimentos pertinentes a cada caso. A administração e controle das amostras é feito manualmente, através de diversas fichas que são preenchidas desde o colhimento do material biológico, no hospital, até a identificação final da bactéria no laboratório. Dessa forma, a organização das informações fica limitada, uma vez que, estando as informações escritas à mão e guardadas em livros, é quase impossível a extração de conhecimento útil que possa servir não só no apoio à decisão, como também, na formulação de simples estatísticas. Esta dissertação teve dois objetivos principais. O desenvolvimento de um sistema Web, intitulado BCIWeb (Bacterial Classification and Identification for Web), que fosse capaz de auxiliar na identificação bacteriológica e prover a tecnologia necessária para a administração e controle de amostras clínicas oriundas de hospitais. E a descoberta de conhecimento na base de dados do sistema, através da mineração de dados utilizando os métodos de Mapas Auto-Organizáveis (SOM: Self-Organizing Maps) e Redes Multilayer Perceptrons (MLP) para classificação e identificação de bactérias. A partir do desenvolvimento desta ferramenta amigável, no estudo de caso, os dados históricos do LDCIC (Laboratório de Difteria e Corinebactérias de Importância Clínica) do Departamento de Biologia da UERJ foram inseridos no sistema. Os métodos inteligentes propostos para classificação e identificação de bactérias foram analisados e apresentaram resultados promissores na área. / [en] Most laboratories do not have a computerized system for management procedures. The administration and control of the samples are made manualy through many forms of data sheets which are filled from the beginning, when the samples of biological materials are gathered at the hospital, up to the final identification at the laboratory. In this context, the organization of the information become very limited, while the information writting by hands and stored in books, its almost impossible to extract useful knowledge, which could help not only supporting decisions but also in the formulations of simples statistics. This thesis had two objectives. The development of a web system called BCIWeb (Bacterial Classifiation and Identification for Web) that could assist in bacterial identification and provide the technology necessary for the administration and control of clinical specimen coming from the hospitals and the discovery of knowledge in database system, through data mining methods using SOM (Self Organizing Maps) and Multilayer Perceptron Neural Networks (MLP) for classification and identificatin of bactéria. From the development of this friendly tool, in the case study, the historical data from LDCIC (Laboratório de Difteria e Corinebactérias de Importância Clínica) of UERJ Biology Department were entered into the system. The proposed intelligent methods for classification and identification of bacteria were analysed and showed promising results.
|
118 |
[en] NEURO-FUZZY BSP HIERARCHICAL SYSTEM FOR TIME FORECASTING AND FUZZY RULE EXTRACTION DOR DATA MINING APPLICATONS / [pt] SISTEMA NEURO-FUZZY HIERÁRQUICO BSP PARA PREVISÃO E EXTRAÇÃO DE REGRAS FUZZY EM APLICAÇÕES DE DATA MININGALBERTO IRIARTE LANAS 11 October 2005 (has links)
[pt] Esta dissertação investiga a utilização de um sistema
Neuro-Fuzzy Hierárquico para previsão de séries e a
extração de regras fuzzy em aplicações de Mineração de
Dados. O objetivo do trabalho foi estender o modelo Neuro-
Fuzzy Hierárquico BSP para a classificação de registros e
a previsão de séries temporais. O processo de
classificação de registros no contexto de Mineração de
Dados consiste na extração de regras de associação que
melhor caracterizem, através de sua acurácia e
abrangência, um determinado grupo de registros de um banco
de dados (BD). A previsão de séries temporais, outra
tarefa comum em Mineração de Dados tem como objetivo
prever o comportamento de uma série temporal no instante
t+k (k ? 1).O trabalho consistiu de 5 etapas principais:
elaborar um survey dos principais sistemas e modelos
mais utilizados nas aplicações de Mineração de Dados;
avaliar o desempenho do sistema NFHB original em
aplicações de Mineração de Dados; desenvolver uma extensão
do modelo NFHB dedicado à classificação de registros em
uma BD; desenvolver um novo modelo híbrido Neuro-Fuzzy
Genético para o ajuste automático dos parâmetros do
sistema dedicado a previsão de séries temporais; e o
estudo dos casos. O estudo da área resultou num survey
sobre os principais modelos para Mineração de Dados. São
apresentados os modelos mais utilizados em tarefas de
classificação e extração de regras tais como: redes
neurais, árvores de decisão crisp e fuzzy, algoritmos
genéticos, estatística e sistemas neuro-fuzzy. Na etapa de
avaliação do modelo NFHB original, foi verificado que além
do tradicional aprendizado dos parâmetros, comuns às redes
neurais e aos sistemas neuro-fuzzy, o modelo possui as
seguintes aracterísticas: aprendizado da estrutura, a
partir do uso de particionamentos recursivos; número maior
de entradas que o habitualmente encontrado nos sistemas
neuro-fuzzy; e regras com hierarquia, características
adequadas para as aplicações de Mineração de Dados.
Entretanto, o processo de extração de regras e a seleção
de atributos não são adequados para este tipo de
aplicação, assim como a excessiva complexidade da
parametrização do modelo para aplicações de previsão de
séries temporais. Uma extensão ao modelo NFHB original foi
então proposta para aplicações de classificação de
registros no contexto da Mineração de Dados onde se têm
como objetivo principal a extração de informação em forma
de regras interpretáveis. Foi necessário modificar a
seleção de atributos e o processo original de extração de
regras. O sistema fuzzy do tipo Takagi-Sugeno do modelo
NFHB original fornece regras inadequadas do ponto de vista
da Mineração de Dados. O novo modelo NFHB, dotado das
modificações necessárias, mostrou um ótimo desempenho na
extração de regras fuzzy válidas que descrevem a
informação contida no banco de dados. As medidas de
avaliação normalmente usadas para analisar regras crisp
(Se x1 é <14.3 e...), como abrangência e acurácia, foram
modificadas para poderem ser aplicadas ao caso de
avaliação das regras fuzzy (Se x1 é Baixo e..) extraídas
pelo sistema NFHB após da fase de aprendizado. A
quantidade e a qualidade das regras extraídas é um ponto
fundamental dos sistemas voltados para aplicações de
Mineração de Dados, que buscam sempre obter o menor número
de regras e da maior qualidade possível. Nesse sentido, o
processo de seleção das características de entrada foi
alterado para evitar particionamentos excessivos, ou seja
regras desnecessárias. Foram implementadas duas
estratégias de seleção (Fixa e Adaptativa) em função de
diferentes medidas de avaliação como a Entropia e o método
de Jang. Um novo modelo híbrido neuro-fuzzy genético para
previsão de séries temporais foi criado para resolver o
problema da excessiva complexidade de parametrização do
sistema, o qual conta com mais de 15 parâmetros.Foi
proposto um novo modelo híbrido neuro-fuzzy genético capaz
de evoluir e obter um conjunto de parâmetros adequado par / [en] This dissertation investigates the use of a Neuro-Fuzzy
Hierarchical system for time series forecasting and fuzzy
rule extraction for Data Mining applications. The
objective of this work was to extend the Neuro-Fuzzy BSP
Hierarchical model for the classification of registers and
time series forecasting. The process of classification of
registers in the Data Mining context consists of
extracting association rules that best characterise,
through its accuracy and coverage measures, a certain
group of registers of database (DB). The time series
forecasting other common task in Data Mining, has a main
objective to foresee the behavior of a time series in the
instant t+k (k>=1).
The work consisted of 5 main stages: to elaborate a survey
of the main systems and the most common models in Data
Mining applications; to evaluate the performance of the
original NFHB system in Data Mining applicatons; to
develop an extension of the NFHB model dedicated to the
classification of registers in a DB; to develop a new
Neuro-Fuzzy Genetic hybrid model for the automatic
adjustment of the parameters of the system for time series
forecasting applicatons; and the case estudies.
The study of the area resulted in a survey of the main
Data Mining models. The most common methods used in Data
Mining application are presented such as: neural nets,
crisp and fuzzy decision trees, genetic algorithms,
statistics and neuro-fuzzy systems.
In the stage of evaluation of the original NFHB model, it
verified that besides the traditional learning of the
parameters, common to the neural nets and the neuro-fuzzy
systems, the model possesses the following
characteristics: learning of the structure; recursive
partitioning; larger number of inputs than usually found
on the neuro-fuzzy systems; rule with hierarchy; which are
characteristics adapted for Data Mining applications.
However the rule extraction process and attributes
selection are not appropriate for this type of
applications, as well as the excessive complexity of the
tuning of the model for time series forecasting
applicatons.
An extension of the original NFHB model was then proposed
for applicatons of classification of registers in the Data
Mining context, where the main objective in the extraction
of information in form of interpratable rules. It was
necessary to modify the attributes selection and the
original rule extraction process. The Takagi-Sugeno fuzzy
system of the original NFHB model supplies inadequate
rules, from the Data Mining point of view. The new NFHB
models, endowed with necessary modifications, showed good
performance in extracting valid fuzzy rules that describe
the information contained in the database. The evaluation
metrics, usually used to analyse crips rules (If x1 is
<14.3 and), as coverage and accuracy, were modified to be
applied to the evaluation of the fuzzy rules (If x1 is Low
and) extracted from the NFHB system after the learning
process. The amount and quality of the extracted rules are
important points of the systems dedicated for Data Mining
applicatons, where the target is to obtain the smallest
number of rules and of the best quality. In that sense,
the input selection strategies were implemented (Static
and Adaptive), using different evaluation measures as
Entropy and the jang algorithm.
A new genetic neuro-fuzzy hybrid model for time series
forecasting was created to solve the problem of the
excessive complexity of the model tuning, which comprises
more than 15 parameters. A new model wes proposed, a
genetic neuro-fuzzy hybrid, model capable to develop and
to obtain an appropriate set of parameters for the
forecasting of time series. The new hybrid, model capable
to develop and to obtain an appropriate set of parameters
for the forecasting of time series. The new hybrid model
presented good results with different types of series.
A tool based on the NFHB model was developed for
classification and forecasting applications. Th
|
119 |
[en] DECISION TREES WITH EXPLAINABLE RULES / [pt] ÁRVORES DE DECISÃO COM REGRAS EXPLICÁVEISVICTOR FEITOSA DE CARVALHO SOUZA 04 August 2023 (has links)
[pt] As árvores de decisão são estruturas comumente utilizadas em cenários
nos quais modelos explicáveis de Aprendizado de Máquina são desejados, por
serem visualmente intuitivas. Na literatura existente, a busca por explicabilidade
em árvores envolve a minimização de métricas como altura e número de
nós. Nesse contexto, definimos uma métrica de explicabilidade, chamada de
explanation size, que reflete o número de atributos necessários para explicar
a classificação dos exemplos. Apresentamos também um algoritmo, intitulado
SER-DT, que obtém uma aproximação O(log n) (ótima se P diferente NP) para a
minimização da altura no pior caso ou caso médio, assim como do explanation
size no pior caso ou caso médio. Em uma série de experimentos, comparamos
a implementação de SER-DT com algoritmos conhecidos da área, como CART e
EC2, além de testarmos o impacto de parâmetros e estratégias de poda nesses
algoritmos. SER-DT mostrou-se competitivo em acurácia com os algoritmos
citados, mas gerou árvores muito mais explicáveis. / [en] Decision trees are commonly used structures in scenarios where explainable
Machine Learning models are desired, as they are visually intuitive. In
the existing literature, the search for explainability in trees involves minimizing
metrics such as depth and number of nodes. In this context, we define
an explainability metric, called explanation size, which reflects the number of
attributes needed to explain the classification of examples. We also present an
algorithm, called SER-DT, which obtains an O(log n) approximation (optimal
if P different NP) for the minimization of depth in the worst/average case, as well
as of explanation size in the worst/average case. In a series of experiments,
we compared the SER-DT implementation with well-known algorithms in the
field, such as CART and EC2 in addition to testing the impact of parameters
and pruning strategies on these algorithms. SER-DT proved to be competitive
in terms of accuracy with the aforementioned algorithms, but generated much
more explainable trees.
|
120 |
[en] CONVOLUTIONAL NETWORKS APPLIED TO SEISMIC NOISE CLASSIFICATION / [pt] REDES CONVOLUCIONAIS APLICADAS À CLASSIFICAÇÃO DE RUÍDO SÍSMICOEDUARDO BETINE BUCKER 24 March 2021 (has links)
[pt] Modelos baseados em redes neurais profundas como as Redes Neurais Convolucionais proporcionaram avanços significativos em diversas áreas da computação. No entanto, essa tecnologia é ainda pouco aplicada à predição de qualidade sísmica, que é uma atividade relevante para exploração de hidrocarbonetos. Ser capaz de, rapidamente, classificar o ruído presente em aquisições de dados sísmicos permite aceitar ou rejeitar essas aquisições de forma eficiente, o que além de economizar recursos também melhora a interpretabilidade dos dados. Neste trabalho apresenta-se um dataset criado a partir de 6.918 aquisições manualmente classificadas pela percepção de especialistas e pesquisadores, que serviu de base para o treinamento, validação e testes de um classificador, também proposto neste trabalho, baseado em uma rede neural convolucional. Em resultados empíricos, observou-se-se um F1 Score de 95,58 porcento em uma validação cruzada de 10 folds e 93,56 porcento em um conjunto de holdout de teste. / [en] Deep Learning based models, such as Convolutional Neural Networks
(CNNs), have led to significant advances in several areas of computing applications.
Nevertheless, this technology is still rarely applied to seismic quality
prediction, which is a relevant task in hydrocarbon exploration. Being able
to promptly classify noise in common shot gather(CSG) acquisitions of seismic
data allows the acceptance or rejection of those aquisitions, not only
saving resources but also increasing the interpretability of data. In this work,
we introduce a real-world classification dataset based on 6.918 common shot
gather, manually labeled by perception of specialists and researches. We use
it to train a CNN classification model for seismic shot-gathers quality prediction.
In our empirical evaluation, we observed an F1 Score of 95,58 percent in
10 fold cross-validation and 93,56 percent in a Holdout Test.
|
Page generated in 0.1061 seconds