• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 139
  • 17
  • Tagged with
  • 156
  • 92
  • 82
  • 47
  • 30
  • 24
  • 23
  • 22
  • 22
  • 22
  • 21
  • 21
  • 17
  • 16
  • 14
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

[en] KNOWLEDGE-BASED INTERPRETATION OF HIGH RESOLUTION REMOTE SENSING IMAGES / [pt] INTERPRETAÇÃO BASEADA EM CONHECIMENTO DE IMAGENS DE SENSORES REMOTOS DE ALTA RESOLUÇÃO

THIAGO BROERMAN CAZES 21 March 2006 (has links)
[pt] A cada dia mais e mais satélites de alta resolução têm se tornado disponíveis, criando grande demanda por novos métodos de interpretação baseados em conhecimento. Estes métodos emulam parcialmente o trabalho do especialista em análise visual de imagens. Nesse contexto, o presente trabalho apresenta um modelo de classificação baseado no conhecimento do especialista aplicado a imagens de alta resolução. O modelo de interpretação consiste de três fases. A primeira inclui o conhecimento espectral e a informação de textura. Na segunda fase dados de SIG (sistema de informação geográfico) são combinados com o resultado da análise espectral através de regras nebulosas. Na terceira e última fase é introduzido o conhecimento multitemporal através de uma estimativa das possibilidades de transição entre classes de uma mesma área em um dado intervalo de tempo. Para validação desse modelo experimentos foram realizados em imagens IKONOS e fotos aéreas de 1999, 2001 e de 2002 da área do Parque Estadual da Pedra Branca, que é um importante fragmento da Floresta Atlântica situado no estado do Rio de Janeiro, Brasil. / [en] New high resolution satellites for commercial purposes became available in the few years. This increases the need of new automatic knowledge based image interpretation methods. Such methods partially emulate the reasoning of an image analyst during the visual image interpretation. The present work falls into this context and proposes an automatic classification model for high resolution remotely sensed images. The model consists of three stages. In the first stage only spectral and textural information are used for classification. In the second stage GIS (geographic information system) data are combined with the result of the spectral analysis by means of fuzzy rules. In the third stage the multitemporal knowledge is introduced by estimating class transition possibilities within a given time span. To validate the proposed model experiments were performed based on IKONOS images from 2001 and 2002 as well as aerial photos from 1999 of the Pedra Branca Park, which is an important Atlantic Forest fragment in the State Rio de Janeiro in Southeast Brazil.
112

[en] ON THE APPLICATION OF SIGNAL ANALYSIS TECHNIQUES TO REAL TIME COMMUNICATION AND CLASSIFICATION / [pt] TÉCNICAS APLICADAS À COMUNICAÇÃO EM TEMPO REAL E À SUA CLASSIFICAÇÃO

BRUNO COSENZA DE CARVALHO 12 March 2003 (has links)
[pt] A técnica de análise de sinais corrompidos por ruído baseada no comportamento de subespaços vetoriais foi tema de alguns trabalhos publicados desde o início da década de 80. Esta nova técnica passou a ter grande importância no processamento de sinais digitais devido a fatores como robustez e precisão.Porém, o maior problema associado a este novo método é o seu elevado custo computacional. Esta característica limitou o emprego da técnica em sistemas - offline - . A preocupação então passou a ser rastrear a variação do comportamento dos subespaços vetoriais de modo eficiente. O objetivo deste rastreamento seria o emprego da técnica em alguns sistemas que operam em tempo real. Este trabalho de tese propõe um novo algoritmo de rastreamento de subespaços vetoriais. O objetivo é apresentar um algoritmo que demonstre um bom desempenho, com relação aos demais já existentes, permitindo eventual aplicação em sistemas que atuem em tempo real. Como contribuição adicional, são apresentadas uma nova análise e caracterização de sistemas que se assemelham aos circulantes, sendo para isto reinterpretada a decomposição de matrizes circulantes. O conjunto de contribuições é aplicado a um novo sistema automático de classificação de sinais comunicação, quanto ao tipo de modulação. / [en] The signal subspace analysis technique, usually applied to signals corrupted by noise, is theme of some papers since the beginning of the 80s decade. This new technique has presented important features, as robustness and precision, and became widely employed in digital signal processing. However, the main problem associated to this new method is the high computational cost. This characteristic has restricted the use of signal subspace analysis to some off-line systems. A possible way to overcome this burden was to track the signal and noise subspace behavior in the time-domain. The main objective of these methods is to allow the signal subspace analysis technique application to real time systems, sometimes at the expense of limiting analysis precision or scope. This work proposes a new subspace tracking procedure. The goal is to describe a new algorithm with good performance (precision-speed), allowing some real time systems applications. A new analysis and characterization of almost circulant systems is introduced by reinterpreting the circulating matrix decomposition scheme. The set of contributions is applied to a new analogue modulation communication signals automatic recognition structure.
113

[en] DATA SELECTION FOR LVQ / [pt] SELEÇÃO DE DADOS EM LVQ

RODRIGO TOSTA PERES 20 September 2004 (has links)
[pt] Nesta dissertação, propomos uma metodologia para seleção de dados em modelos de Aprendizado por Quantização Vetorial, referenciado amplamente na literatura pela sigla em inglês LVQ. Treinar um modelo (ajuste dentro-daamostra) com um subconjunto selecionado a partir do conjunto de dados disponíveis para o aprendizado pode trazer grandes benefícios no resultado de generalização (fora-da-amostra). Neste sentido, é muito importante realizar uma busca para selecionar dados que, além de serem representativos de suas distribuições originais, não sejam ruído (no sentido definido ao longo desta dissertação). O método proposto procura encontrar os pontos relevantes do conjunto de entrada, tendo como base a correlação do erro de cada ponto com o erro do restante da distribuição. Procura-se, em geral, eliminar considerável parte do ruído mantendo os pontos que são relevantes para o ajuste do modelo (aprendizado). Assim, especificamente em LVQ, a atualização dos protótipos durante o aprendizado é realizada com um subconjunto do conjunto de treinamento originalmente disponível. Experimentos numéricos foram realizados com dados simulados e reais, e os resultados obtidos foram muito interessantes, mostrando claramente a potencialidade do método proposto. / [en] In this dissertation, we consider a methodology for selection of data in models of Learning Vector Quantization (LVQ). The generalization can be improved by using a subgroup selected from the available data set. We search the original distribution to select relevant data that aren't noise. The search aims at relevant points in the training set based on the correlation between the error of each point and the average of error of the remaining data. In general, it is desired to eliminate a considerable part of the noise, keeping the points that are relevant for the learning model. Thus, specifically in LVQ, the method updates the prototypes with a subgroup of the originally available training set. Numerical experiments have been done with simulated and real data. The results were very interesting and clearly indicated the potential of the method.
114

[en] CONTROL OF A ROBOTIC HAND USING SURFACE ELECTROMYOGRAPHIC SIGNALS / [pt] CONTROLE DE UMA MÃO ROBÓTICA ACIONADA POR SINAIS ELETROMIOGRÁFICOS DE SUPERFÍCIE

CARLOS GERARDO PAUCAR MALQUI 07 March 2017 (has links)
[pt] Esta dissertação propõe um sistema de controle de uma mão robótica utilizando sinais eletromiográficos de superfície (sEMG). Os sinais sEMG são coletados de três diferentes grupos musculares do antebraço superior: músculo palmar longo, músculo extensor dos dedos, e músculo extensor radial longo do carpo. O objetivo dessa pesquisa é o desenvolvimento de um protótipo de uma prótese robótica para pessoas que apresentam amputação da mão, controlado por uma interface eletromiográfica baseada em inteligência computacional. Este trabalho abrange os seguintes tópicos: posicionamento dos eletrodos para capturar os sinais sEMG, projeto de um sistema de eletromiografia como interface muscular, método de pré processamento de sinais, uso de técnicas de inteligência computacional para a interpretação dos sinais sEMG, projeto da mão robótica, e método de controle utilizado para controlar as posições dos dedos e o controle da força da mão. Nesta dissertação é utilizada a transformada wavelet como método de extração de características nos sinais eletromiográficos, e uma rede neural multicamada como método de classificação de padrões. O modelo proposto apresentou resultados satisfatórios, conseguindo 90,5 por cento de classificação correta dos padrões para o reconhecimento de 6 posturas diferentes da mão, 94,3 por cento para 5 posturas, e 96,25 por cento para 4 posturas. / [en] This thesis proposes the control of a robotic hand system using surface electromyographic signals (sEMG). The sEMG signals are collected from three different muscle groups of the upper forearm: palmaris longus muscle, extensor digitorum communis muscle, and extensor carpi radialis longus muscle. The objective of this research is to develop a prototype of a robotic prosthesis for people with hand amputation, controlled by an electromyographic interface based on computational intelligence. This thesis covers the following topics: positioning of electrodes to capture the sEMG signals, design of an electromyography muscle interface, preprocessing method, use of techniques of computational intelligence for the interpretation of the sEMG signals, design of the robotic hand, and method used to control the positions of the fingers and of the hand grip force. Here, the wavelet transform is used as a feature extraction method in electromyographic signals, and a multi-layer neural network as a pattern classification method. The proposed model obtained satisfactory results, recognizing 90.5 per cent of the positions for 6 different hand patterns, 94.3 per cent for 5, and 96.25 per cent for 4 positions.
115

[en] CLASSIFICATION OF OBJECTS IN REAL CONTEXT BY CONVOLUTIONAL NEURAL NETWORKS / [pt] CLASSIFICAÇÃO DE OBJETOS EM CONTEXTO REAL POR REDES NEURAIS CONVOLUTIVAS

LUIS MARCELO VITAL ABREU FONSECA 08 June 2017 (has links)
[pt] A classificação de imagens em contexto real é o ápice tecnológico do reconhecimento de objetos. Esse tipo de classificação é complexo, contendo diversos problemas de visão computacional em abundância. Este projeto propõe solucionar esse tipo de classificação através do uso do conhecimento no aprendizado de máquina aplicado ao dataset do MS COCO. O algoritmo implementado neste projeto consiste de um modelo de Rede Neural Convolutiva que consegue aprender características dos objetos e realizar predições sobre suas classes. São elaborados alguns experimentos que comparam diferentes resultados de predições a partir de diferentes técnicas de aprendizado. É também realizada uma comparação dos resultados da implementação com o estado da arte na segmentação de objetos em contexto. / [en] The classification of objects in real contexts is the technological apex of object recognition. This type of classification is complex, containing diverse computer vision problems in abundance. This project proposes to solve that type of classification through the use of machine learning knowledge applied to the MS COCO dataset. The implemented algorithm in this project consists of a Convolutional Neural Network model that is able to learn characteristics of the objects and predict their classes. Some experiments are made that compare different results of predictions using different techniques of learning. There is also a comparison of the results from the implementation with state of art in contextual objects segmentation.
116

[pt] CLASSIFICAÇÃO DE FALHAS DE EQUIPAMENTOS DE UNIDADE DE INTERVENÇÃO EM CONSTRUÇÃO DE POÇOS MARÍTIMOS POR MEIO DE MINERAÇÃO TEXTUAL / [en] TEXT CLASSIFICATION OF OFFSHORE RIG EQUIPMENT FAILURE

07 April 2020 (has links)
[pt] A construção de poços marítimos tem se mostrado uma atividade complexa e de alto risco. Para efetuar esta atividade as empresas se valem principalmente das unidades de intervenção de poços, também conhecidas como sondas. Estas possuem altos valores de taxas diárias de uso devido à manutenção preventiva da unidade em si, mas também por falhas as quais seus equipamentos estão sujeitos. No cenário específico da Petrobras, em junho de 2011, foi implantado no banco de dados da empresa um maior detalhamento na classificação das falhas de equipamentos de sonda. Com isso gerou-se uma descontinuidade nos registros da empresa e a demanda para adequar estes casos menos detalhados à classificação atual, mais completa. Os registros são compostos basicamente de informação textual. Para um passivo de 3384 registros, seria inviável alocar uma pessoa para classificá-los. Com isso vislumbrou-se uma ferramenta que pudesse efetuar esta classificação da forma mais automatizada possível, utilizando os registros feitos após junho de 2011 como base. O objetivo principal deste trabalho é de sanar esta descontinuidade nos registros de falha de equipamentos de sonda. Os dados foram tratados e transformados por meio de ferramentas de mineração textual bem como processados pelo algoritmo de aprendizado supervisionado SVM (Support Vector Machines). Ao final, após obter a melhor configuração do modelo, este foi aplicado às informações textuais do passivo de anormalidades, atribuindo suas classes de acordo com o novo sistema de classificação. / [en] Off-shore well construction has shown to be a complex and risky activity. In order to build off-shore wells, operators rely mainly on off-shore rigs. These rigs have an expensive day rate, related to their rental and maintenance, but also due to their equipment failure. At off-shore Petrobras scenario, on June of 2011, was implemented at the company database a better detailing on the classification of rig equipment failure. That brought a discontinuity to the database records and created a demand for adequacy of the former classification to the new classification structure. Basically, rig equipment failure records are based on textual information. For a liability of 3384 records, it was unable for one person to manage the task. Therefore, an urge came for a tool that could classify these records automatically, using database records already classified under the new labels. The main purpose of this work is to overcome this database discontinuity. Data was treated and transformed through text mining tools and then processed by supervised learning algorithm SVM (Support Vector Machines). After obtaining the best model configuration, the old records were submitted under this model and were classified according to the new classification structure.
117

[en] IDENTIFICATION AND EPIDEMIOLOGICAL SURVEILLANCE OF BACTERIA: WEB SYSTEM DEVELOPMENT AND EVALUATION OF INTELLIGENT METHODS / [pt] IDENTIFICAÇÃO E RASTREAMENTO EPIDEMIOLÓGICO DE BACTÉRIAS: DESENVOLVIMENTO DE SISTEMA WEB E AVALIAÇÃO DE MÉTODOS INTELIGENTES

05 November 2021 (has links)
[pt] A maioria dos laboratórios não conta com um sistema informatizado para gestão dos procedimentos pertinentes a cada caso. A administração e controle das amostras é feito manualmente, através de diversas fichas que são preenchidas desde o colhimento do material biológico, no hospital, até a identificação final da bactéria no laboratório. Dessa forma, a organização das informações fica limitada, uma vez que, estando as informações escritas à mão e guardadas em livros, é quase impossível a extração de conhecimento útil que possa servir não só no apoio à decisão, como também, na formulação de simples estatísticas. Esta dissertação teve dois objetivos principais. O desenvolvimento de um sistema Web, intitulado BCIWeb (Bacterial Classification and Identification for Web), que fosse capaz de auxiliar na identificação bacteriológica e prover a tecnologia necessária para a administração e controle de amostras clínicas oriundas de hospitais. E a descoberta de conhecimento na base de dados do sistema, através da mineração de dados utilizando os métodos de Mapas Auto-Organizáveis (SOM: Self-Organizing Maps) e Redes Multilayer Perceptrons (MLP) para classificação e identificação de bactérias. A partir do desenvolvimento desta ferramenta amigável, no estudo de caso, os dados históricos do LDCIC (Laboratório de Difteria e Corinebactérias de Importância Clínica) do Departamento de Biologia da UERJ foram inseridos no sistema. Os métodos inteligentes propostos para classificação e identificação de bactérias foram analisados e apresentaram resultados promissores na área. / [en] Most laboratories do not have a computerized system for management procedures. The administration and control of the samples are made manualy through many forms of data sheets which are filled from the beginning, when the samples of biological materials are gathered at the hospital, up to the final identification at the laboratory. In this context, the organization of the information become very limited, while the information writting by hands and stored in books, its almost impossible to extract useful knowledge, which could help not only supporting decisions but also in the formulations of simples statistics. This thesis had two objectives. The development of a web system called BCIWeb (Bacterial Classifiation and Identification for Web) that could assist in bacterial identification and provide the technology necessary for the administration and control of clinical specimen coming from the hospitals and the discovery of knowledge in database system, through data mining methods using SOM (Self Organizing Maps) and Multilayer Perceptron Neural Networks (MLP) for classification and identificatin of bactéria. From the development of this friendly tool, in the case study, the historical data from LDCIC (Laboratório de Difteria e Corinebactérias de Importância Clínica) of UERJ Biology Department were entered into the system. The proposed intelligent methods for classification and identification of bacteria were analysed and showed promising results.
118

[en] NEURO-FUZZY BSP HIERARCHICAL SYSTEM FOR TIME FORECASTING AND FUZZY RULE EXTRACTION DOR DATA MINING APPLICATONS / [pt] SISTEMA NEURO-FUZZY HIERÁRQUICO BSP PARA PREVISÃO E EXTRAÇÃO DE REGRAS FUZZY EM APLICAÇÕES DE DATA MINING

ALBERTO IRIARTE LANAS 11 October 2005 (has links)
[pt] Esta dissertação investiga a utilização de um sistema Neuro-Fuzzy Hierárquico para previsão de séries e a extração de regras fuzzy em aplicações de Mineração de Dados. O objetivo do trabalho foi estender o modelo Neuro- Fuzzy Hierárquico BSP para a classificação de registros e a previsão de séries temporais. O processo de classificação de registros no contexto de Mineração de Dados consiste na extração de regras de associação que melhor caracterizem, através de sua acurácia e abrangência, um determinado grupo de registros de um banco de dados (BD). A previsão de séries temporais, outra tarefa comum em Mineração de Dados tem como objetivo prever o comportamento de uma série temporal no instante t+k (k ? 1).O trabalho consistiu de 5 etapas principais: elaborar um survey dos principais sistemas e modelos mais utilizados nas aplicações de Mineração de Dados; avaliar o desempenho do sistema NFHB original em aplicações de Mineração de Dados; desenvolver uma extensão do modelo NFHB dedicado à classificação de registros em uma BD; desenvolver um novo modelo híbrido Neuro-Fuzzy Genético para o ajuste automático dos parâmetros do sistema dedicado a previsão de séries temporais; e o estudo dos casos. O estudo da área resultou num survey sobre os principais modelos para Mineração de Dados. São apresentados os modelos mais utilizados em tarefas de classificação e extração de regras tais como: redes neurais, árvores de decisão crisp e fuzzy, algoritmos genéticos, estatística e sistemas neuro-fuzzy. Na etapa de avaliação do modelo NFHB original, foi verificado que além do tradicional aprendizado dos parâmetros, comuns às redes neurais e aos sistemas neuro-fuzzy, o modelo possui as seguintes aracterísticas: aprendizado da estrutura, a partir do uso de particionamentos recursivos; número maior de entradas que o habitualmente encontrado nos sistemas neuro-fuzzy; e regras com hierarquia, características adequadas para as aplicações de Mineração de Dados. Entretanto, o processo de extração de regras e a seleção de atributos não são adequados para este tipo de aplicação, assim como a excessiva complexidade da parametrização do modelo para aplicações de previsão de séries temporais. Uma extensão ao modelo NFHB original foi então proposta para aplicações de classificação de registros no contexto da Mineração de Dados onde se têm como objetivo principal a extração de informação em forma de regras interpretáveis. Foi necessário modificar a seleção de atributos e o processo original de extração de regras. O sistema fuzzy do tipo Takagi-Sugeno do modelo NFHB original fornece regras inadequadas do ponto de vista da Mineração de Dados. O novo modelo NFHB, dotado das modificações necessárias, mostrou um ótimo desempenho na extração de regras fuzzy válidas que descrevem a informação contida no banco de dados. As medidas de avaliação normalmente usadas para analisar regras crisp (Se x1 é <14.3 e...), como abrangência e acurácia, foram modificadas para poderem ser aplicadas ao caso de avaliação das regras fuzzy (Se x1 é Baixo e..) extraídas pelo sistema NFHB após da fase de aprendizado. A quantidade e a qualidade das regras extraídas é um ponto fundamental dos sistemas voltados para aplicações de Mineração de Dados, que buscam sempre obter o menor número de regras e da maior qualidade possível. Nesse sentido, o processo de seleção das características de entrada foi alterado para evitar particionamentos excessivos, ou seja regras desnecessárias. Foram implementadas duas estratégias de seleção (Fixa e Adaptativa) em função de diferentes medidas de avaliação como a Entropia e o método de Jang. Um novo modelo híbrido neuro-fuzzy genético para previsão de séries temporais foi criado para resolver o problema da excessiva complexidade de parametrização do sistema, o qual conta com mais de 15 parâmetros.Foi proposto um novo modelo híbrido neuro-fuzzy genético capaz de evoluir e obter um conjunto de parâmetros adequado par / [en] This dissertation investigates the use of a Neuro-Fuzzy Hierarchical system for time series forecasting and fuzzy rule extraction for Data Mining applications. The objective of this work was to extend the Neuro-Fuzzy BSP Hierarchical model for the classification of registers and time series forecasting. The process of classification of registers in the Data Mining context consists of extracting association rules that best characterise, through its accuracy and coverage measures, a certain group of registers of database (DB). The time series forecasting other common task in Data Mining, has a main objective to foresee the behavior of a time series in the instant t+k (k>=1). The work consisted of 5 main stages: to elaborate a survey of the main systems and the most common models in Data Mining applications; to evaluate the performance of the original NFHB system in Data Mining applicatons; to develop an extension of the NFHB model dedicated to the classification of registers in a DB; to develop a new Neuro-Fuzzy Genetic hybrid model for the automatic adjustment of the parameters of the system for time series forecasting applicatons; and the case estudies. The study of the area resulted in a survey of the main Data Mining models. The most common methods used in Data Mining application are presented such as: neural nets, crisp and fuzzy decision trees, genetic algorithms, statistics and neuro-fuzzy systems. In the stage of evaluation of the original NFHB model, it verified that besides the traditional learning of the parameters, common to the neural nets and the neuro-fuzzy systems, the model possesses the following characteristics: learning of the structure; recursive partitioning; larger number of inputs than usually found on the neuro-fuzzy systems; rule with hierarchy; which are characteristics adapted for Data Mining applications. However the rule extraction process and attributes selection are not appropriate for this type of applications, as well as the excessive complexity of the tuning of the model for time series forecasting applicatons. An extension of the original NFHB model was then proposed for applicatons of classification of registers in the Data Mining context, where the main objective in the extraction of information in form of interpratable rules. It was necessary to modify the attributes selection and the original rule extraction process. The Takagi-Sugeno fuzzy system of the original NFHB model supplies inadequate rules, from the Data Mining point of view. The new NFHB models, endowed with necessary modifications, showed good performance in extracting valid fuzzy rules that describe the information contained in the database. The evaluation metrics, usually used to analyse crips rules (If x1 is <14.3 and), as coverage and accuracy, were modified to be applied to the evaluation of the fuzzy rules (If x1 is Low and) extracted from the NFHB system after the learning process. The amount and quality of the extracted rules are important points of the systems dedicated for Data Mining applicatons, where the target is to obtain the smallest number of rules and of the best quality. In that sense, the input selection strategies were implemented (Static and Adaptive), using different evaluation measures as Entropy and the jang algorithm. A new genetic neuro-fuzzy hybrid model for time series forecasting was created to solve the problem of the excessive complexity of the model tuning, which comprises more than 15 parameters. A new model wes proposed, a genetic neuro-fuzzy hybrid, model capable to develop and to obtain an appropriate set of parameters for the forecasting of time series. The new hybrid, model capable to develop and to obtain an appropriate set of parameters for the forecasting of time series. The new hybrid model presented good results with different types of series. A tool based on the NFHB model was developed for classification and forecasting applications. Th
119

[en] DECISION TREES WITH EXPLAINABLE RULES / [pt] ÁRVORES DE DECISÃO COM REGRAS EXPLICÁVEIS

VICTOR FEITOSA DE CARVALHO SOUZA 04 August 2023 (has links)
[pt] As árvores de decisão são estruturas comumente utilizadas em cenários nos quais modelos explicáveis de Aprendizado de Máquina são desejados, por serem visualmente intuitivas. Na literatura existente, a busca por explicabilidade em árvores envolve a minimização de métricas como altura e número de nós. Nesse contexto, definimos uma métrica de explicabilidade, chamada de explanation size, que reflete o número de atributos necessários para explicar a classificação dos exemplos. Apresentamos também um algoritmo, intitulado SER-DT, que obtém uma aproximação O(log n) (ótima se P diferente NP) para a minimização da altura no pior caso ou caso médio, assim como do explanation size no pior caso ou caso médio. Em uma série de experimentos, comparamos a implementação de SER-DT com algoritmos conhecidos da área, como CART e EC2, além de testarmos o impacto de parâmetros e estratégias de poda nesses algoritmos. SER-DT mostrou-se competitivo em acurácia com os algoritmos citados, mas gerou árvores muito mais explicáveis. / [en] Decision trees are commonly used structures in scenarios where explainable Machine Learning models are desired, as they are visually intuitive. In the existing literature, the search for explainability in trees involves minimizing metrics such as depth and number of nodes. In this context, we define an explainability metric, called explanation size, which reflects the number of attributes needed to explain the classification of examples. We also present an algorithm, called SER-DT, which obtains an O(log n) approximation (optimal if P different NP) for the minimization of depth in the worst/average case, as well as of explanation size in the worst/average case. In a series of experiments, we compared the SER-DT implementation with well-known algorithms in the field, such as CART and EC2 in addition to testing the impact of parameters and pruning strategies on these algorithms. SER-DT proved to be competitive in terms of accuracy with the aforementioned algorithms, but generated much more explainable trees.
120

[en] CONVOLUTIONAL NETWORKS APPLIED TO SEISMIC NOISE CLASSIFICATION / [pt] REDES CONVOLUCIONAIS APLICADAS À CLASSIFICAÇÃO DE RUÍDO SÍSMICO

EDUARDO BETINE BUCKER 24 March 2021 (has links)
[pt] Modelos baseados em redes neurais profundas como as Redes Neurais Convolucionais proporcionaram avanços significativos em diversas áreas da computação. No entanto, essa tecnologia é ainda pouco aplicada à predição de qualidade sísmica, que é uma atividade relevante para exploração de hidrocarbonetos. Ser capaz de, rapidamente, classificar o ruído presente em aquisições de dados sísmicos permite aceitar ou rejeitar essas aquisições de forma eficiente, o que além de economizar recursos também melhora a interpretabilidade dos dados. Neste trabalho apresenta-se um dataset criado a partir de 6.918 aquisições manualmente classificadas pela percepção de especialistas e pesquisadores, que serviu de base para o treinamento, validação e testes de um classificador, também proposto neste trabalho, baseado em uma rede neural convolucional. Em resultados empíricos, observou-se-se um F1 Score de 95,58 porcento em uma validação cruzada de 10 folds e 93,56 porcento em um conjunto de holdout de teste. / [en] Deep Learning based models, such as Convolutional Neural Networks (CNNs), have led to significant advances in several areas of computing applications. Nevertheless, this technology is still rarely applied to seismic quality prediction, which is a relevant task in hydrocarbon exploration. Being able to promptly classify noise in common shot gather(CSG) acquisitions of seismic data allows the acceptance or rejection of those aquisitions, not only saving resources but also increasing the interpretability of data. In this work, we introduce a real-world classification dataset based on 6.918 common shot gather, manually labeled by perception of specialists and researches. We use it to train a CNN classification model for seismic shot-gathers quality prediction. In our empirical evaluation, we observed an F1 Score of 95,58 percent in 10 fold cross-validation and 93,56 percent in a Holdout Test.

Page generated in 0.1061 seconds