Spelling suggestions: "subject:"classificada"" "subject:"classificació""
121 |
[pt] APRIMORAÇÃO DO ALGORITMO Q-NAS PARA CLASSIFICAÇÃO DE IMAGENS / [en] ENHANCED Q-NAS FOR IMAGE CLASSIFICATIONJULIA DRUMMOND NOCE 31 October 2022 (has links)
[pt] Redes neurais profundas são modelos poderosos e flexíveis que ganharam a atenção da comunidade de aprendizado de máquina na última década. Normalmente, um especialista gasta um tempo significativo projetando a arquitetura neural, com longas sessões de tentativa e erro para alcançar resultados
bons e relevantes. Por causa do processo manual, há um maior interesse em abordagens de busca de arquitetura neural, que é um método que visa automatizar a busca de redes neurais. A busca de arquitetura neural(NAS) é uma subárea das técnicas de aprendizagem de máquina automatizadas (AutoML) e uma etapa essencial para automatizar os métodos de aprendizado de máquina.
Esta técnica leva em consideração os aspectos do espaço de busca das arquiteturas, estratégia de busca e estratégia de estimativa de desempenho. Algoritmos evolutivos de inspiração quântica apresentam resultados promissores quanto à convergência mais rápida quando comparados a outras soluções com espaço de busca restrito e alto custo computacional. Neste trabalho, foi aprimorado o Q-NAS: um algoritmo de inspiração quântica para pesquisar redes profundas por meio da montagem de subestruturas simples. O Q-NAS também pode evoluir alguns hiperparâmetros numéricos do treinamento, o que é um primeiro passo na direção da automação completa. Foram apresentados resultados aplicando
Q-NAS, evoluído, sem transferência de conhecimento, no conjunto de dados CIFAR-100 usando apenas 18 GPU/dias. Nossa contribuição envolve experimentar outros otimizadores no algoritmo e fazer um estudo aprofundado dos parâmetros do Q-NAS. Nesse trabalho, foi possível atingir uma acurácia
de 76,40%. Foi apresentado também o Q-NAS aprimorado aplicado a um estudo de caso para classificação COVID-19 x Saudável em um banco de dados de tomografia computadorizada de tórax real. Em 9 GPU/dias, conseguimos atingir uma precisão de 99,44% usando menos de 1000 amostras para dados
de treinamento. / [en] Deep neural networks are powerful and flexible models that have gained
the attention of the machine learning community over the last decade. Usually,
an expert spends significant time designing the neural architecture, with
long trial and error sessions to reach good and relevant results. Because
of the manual process, there is a greater interest in Neural Architecture
Search (NAS), which is an automated method of architectural search in
neural networks. NAS is a subarea of Automated Machine Learning (AutoML)
and is an essential step towards automating machine learning methods. It
is a technique that aims to automate the construction process of a neural
network architecture. This technique is defined by the search space aspects
of the architectures, search strategy and performance estimation strategy.
Quantum-inspired evolutionary algorithms present promising results regarding
faster convergence when compared to other solutions with restricted search
space and high computational costs. In this work, we enhance Q-NAS: a
quantum-inspired algorithm to search for deep networks by assembling simple
substructures. Q-NAS can also evolve some numerical hyperparameters, which
is a first step in the direction of complete automation. Our contribution involves
experimenting other types of optimizers in the algorithm and make an indepth
study of the Q-NAS parameters. Additionally, we present Q-NAS results,
evolved from scratch, on the CIFAR-100 dataset using only 18 GPU/days.
We were able to achieve an accuracy of 76.40% which is a competitive result
regarding other works in literature. Finally, we also present the enhanced QNAS
applied to a case study for COVID-19 x Healthy classification on a real
chest computed tomography database. In 9 GPU/days we were able to achieve
an accuracy of 99.44% using less than 1000 samples for training data. This
accuracy overcame benchmark networks such as ResNet, GoogleLeNet and
VGG.
|
122 |
[en] A GENERIC PLUGIN FOR PLAYER CLASSIFICATION IN GAMES / [pt] UM PLUGIN GENÉRICO PARA CLASSIFICAÇÃO DE JOGADOR EM JOGOSLUIS FERNANDO TEIXEIRA BICALHO 22 November 2022 (has links)
[pt] Game Analytics é uma área que envolve o processamento de dados de
videogames com a finalidade de proporcionar uma melhor experiência de jogo
para o usuário. Também ajuda a verificar os padrões de comportamento dos
jogadores, facilitando a identificação do público-alvo. A coleta de dados dos
jogadores ajuda os desenvolvedores de jogos a identificar problemas mais cedo
e saber por que os jogadores deixaram o jogo ou continuaram jogando. O
comportamento desses jogadores geralmente segue um padrão, fazendo com
que se encaixem em diferentes perfis de jogadores. Especialistas em análise
de jogos criam e usam modelos de tipos de jogadores, geralmente variantes
do modelo de Bartle, para ajudar a identificar perfis de jogadores. Esses
especialistas usam algoritmos de agrupamento para separar os jogadores em
grupos diferentes e identificáveis, rotulando cada grupo com o tipo de perfil
definido pelo modelo proposto. O objetivo principal deste projeto é criar um
plugin Unity genérico para ajudar a identificar perfis de jogadores em jogos.
Este plugin usa uma API Python, que lida com os dados do jogo armazenados
em um banco de dados MongoDB, para agrupar e rotular cada partida ou
nível do jogo escolhido enquanto o jogo está em execução. Neste plugin, os
desenvolvedores de jogos podem configurar o número de tipos de jogadores que
desejam identificar, os rótulos dos jogadores e até os algoritmos que desejam
usar. Essa abordagem de agrupamento online não é usual no desenvolvimento
de jogos. Até onde sabemos, não há nenhum componente de software na
literatura de análise de jogos com a mesma direção e recursos. / [en] Game Analytics is an area that involves the processing of video game
data, in order to make a better game experience for the user. It also helps to
check the patterns in players behaviour, making it easier to identify the target
audience. Gathering player data helps game developers identify problems
earlier and know why players left the game or kept playing. These players
behavior usually follows a pattern, making them fit in different player profiles.
Game analytics experts create and use models of player types, usually variants
of Bartle s model, to help identify player profiles. These experts use clustering
algorithms to separate players into different and identifiable groups, labeling
each group with the profile type defined by the proposed model. The main
goal of this project is to create a generic Unity plugin to help identify Player
Profiles in games. This plugin uses a Python API, which deals with the
game data stored in a MongoDB database, to cluster and label each match
or level of the chosen game while the game is running. In this plugin, game
developers can configure the number of player types they want to identify, the
player labels, and even the algorithms they wish to use. This online clustering
approach is not usual in game development. As far as we are aware, there is no
software component in the game analytics literature with the same direction
and features.
|
123 |
[en] REDUCING TEACHER-STUDENT INTERACTIONS BETWEEN TWO NEURAL NETWORKS / [pt] REDUZINDO AS INTERAÇÕES PROFESSOR-ALUNO ENTRE DUAS REDES NEURAISGUSTAVO MADEIRA KRIEGER 11 October 2019 (has links)
[pt] Propagação de conhecimento é um dos pilares da evolução humana. Nossas descobertas são baseadas em conhecimentos já existentes, construídas em cima deles e então se tornam a fundação para a próxima geração de aprendizado. No ramo de Inteligência Artificial, existe o interesse em replicar esse aspecto da natureza humana em máquinas. Criando um primeiro modelo e treinando ele nos dados originais, outro modelo pode ser criado e aprender a partir dele ao invés de ter que começar todo o processo do zero. Se for comprovado que esse método é confiável, ele vai permitir várias mudanças na forma que nós abordamos machine learning, em que cada inteligência não será um microcosmo independente. Essa relação entre modelos é batizada de relação Professor-Aluno. Esse trabalho descreve o desenvolvimento de dois modelos distintos e suas capacidades de aprender usando a informação dada em um ao outro. Os experimentos apresentados aqui mostram os resultados desse treino e as diferentes metodologias usadas em busca do cenário ótimo em que esse processo de aprendizado é viável para replicação futura. / [en] Propagation of knowledge is one of the pillars of human evolution. Our discoveries are all based on preexisting knowledge, built upon them and then become the foundation for the next generation of learning. In the field of artificial intelligence, there s an interest in replicating this aspect of human nature on machines. By creating a first model and training it on the original data, another model can be created and learn from it instead of having to learn everything from scratch. If this method is proven to be reliable, it will allow many changes in the way that we approach machine learning, specially allowing different models to work together. This relation between models is nicknamed the Teacher-Student relation. This work describes the development of two separate models and their ability to learn using incomplete data and each other. The experiments presented here show the results of this training and the different methods used in the pursuit of an optimal scenario where such learning process is viable for future use.
|
124 |
[en] DETECTION, SEPARATION E CLASSIFICATION OF PARTIAL DISCHARGE SIGNALS IN HIGH VOLTAGE INSULATIONS / [pt] DETECÇÃO, SEPARAÇÃO E CLASSIFICAÇÃO DE SINAIS DE DESCARGAS PARCIAIS EM ISOLAMENTOS DE ALTA TENSÃOTHIAGO BAPTISTA RODRIGUES 03 November 2020 (has links)
[pt] A medição e classificação de descargas parciais constituem uma importante ferramenta de avaliação dos sistemas de isolamento utilizados em equipamentos de alta tensão. Após o pré-processamento dos dados, que captura, digitaliza e filtra o sinal de descargas parciais, geralmente eliminando os ruídos, existem basicamente duas etapas principais, que são a extração de características e a classificação de padrões. As descargas parciais contêm um conjunto de características discriminatórias únicas que lhes permitem ser reconhecidas. Assim, o primeiro procedimento no processo de classificação é definir quais delas podem ser utilizadas e qual o método de extração destas características. O fenômeno de descargas parciais tem uma natureza transitória e é caracterizado por correntes pulsantes com uma duração de vários nanossegundos até poucos microssegundos. Sua magnitude não é sempre proporcional ao dano causado, sendo que descargas de pequena magnitude podem levar rapidamente à evolução de um defeito. Por isso a necessidade de se entender bem este fenômeno e saber interpretar os dados. Além disso, equipamentos de alta tensão de grande porte, como motores e geradores, podem apresentar mais de uma fonte interna de descargas parciais, sendo importante separar os sinais dessas diferentes fontes antes de realizar a classificação. No caso de outros equipamentos de alta tensão de menor porte, como para-raios e transformadores de corrente de subestação, a simples detecção da presença de descargas parciais interna ao equipamento, independente do número de fontes, já é suficiente para indicar a retirada de operação destes equipamentos, dado seu baixo custo relativo e o elevado grau de importância destes para a confiabilidade do sistema onde estão inseridos. Para um diagnóstico completo e confíável de isolamentos de alta tensão, há a demanda por um sistema de análise capaz de promover com eficácia a detecção de descargas parciais internas aos equipamentos, a separação das diversas fontes de descargas parciais, no caso dos equipamentos de grande porte, bem como realizar a correta
classificação do tipo de defeito, com base principalmente na análise das características discriminantes das diferentes fontes e na assinatura dos sinais para os diferentes defeitos. Este estudo contribui para o preenchimento desta lacuna, apresentando metodologias que se mostram robustas e precisas nos testes realizados, de modo que possam efetivamente orientar os especialistas em manutenção na tomada de decisões. Para fazer isso, são propostas novas variáveis capazes de extrair informações relevantes de sinais no tempo medidos em diversos tipos de isolamentos, sendo aplicadas aqui em dados obtidos em campo e em laboratório para avaliar sua eficácia na tarefa. Essas informações são tratadas utilizando técnicas de classificação de padrões e inteligência artificial para determinar de forma automática a presença de descargas parciais, o número de fontes diferentes e o tipo de defeito nos isolamentos de alta tensão utilizados no estudo. Outra contribuição do estudo é a criação de um banco de dados histórico, baseada em processamento de imagem, com padrões de mapas de descargas parciais conhecidos na literatura em máquinas rotativas, para serem utilizados na classificação de novos mapas medidos neste tipo de equipamento. / [en] Measurement and classification of partial discharges are an important tool for the evaluation of insulation systems used in high voltage equipments. After pre-processing of data, which captures, scans and filters the signal of partial discharges, generally eliminating noises, there are basically two main steps, which are the extraction of characteristics and the pattern classification. Partial discharges contain a set of unique discriminatory characteristics that allow them to be recognized. Thus, the first procedure in the classification process is to define which of them can be used and which is the method for extraction of those characteristics. The phenomenon of partial discharges has a transient nature and is characterized by pulsating currents with a duration of several nanoseconds up to a few microseconds. Its magnitude is not always proportional to the damage caused, and discharges of small magnitude can quickly lead to the evolution of a failure. Therefore the need to understand this phenomenon well and to know how to interpret the data. In addition, large high voltage equipments such as motors and generators may have more than one internal source of partial discharges, and it is important to separate the signals from those different sources prior to classification. In the case of smaller high voltage equipments, as surge arrester and substation current transformers, the simple detection of the presence of partial discharges inside the equipment, regardless of the number of sources, is sufficient to indicate the withdrawal of operation of the equipment, given their low relative cost and the high degree of importance of these to the reliability of the system where they are part of. For a complete and reliable diagnosis of high voltage insulations, there is a demand for an analysis system capable of effectively promoting the detection of the partial discharges internal to the equipments, the separation of the various sources of partial discharges in the case of large equipments, as well as to carry out the correct classification of the type of failure. The system should be based mainly on the analysis of the discriminating
characteristics of the different sources and the signature of the signals for the different failure. This study contributes to fill this gap by presenting methodologies that are robust and accurate in the tests performed, so that they can effectively guide maintenance specialists in decision making. To do this, new variables are proposed to extract relevant information from time signals measured in various types of insulations, being applied here in field and laboratory data to evaluate their effectiveness in the task. This information is treated using standard classification techniques and artificial intelligence to automatically determine the presence of partial discharges, the number of different sources and the type of defect in the high voltage insulations used in the study. Another contribution of the study is the creation of a historical database, based on image processing, with partial discharge map patterns known in the literature on rotating machines, to be used in the classification of new maps measured in this type of equipment.
|
125 |
[en] A GRAPH-BASED COLLABORATIVE SUPPORT FOR EXPERT FINDING AND RECOMMENDING REFERENCES IN SCIENTIFIC PUBLICATIONS / [pt] SUPORTE COLABORATIVO BASEADO EM GRAFOS PARA LOCALIZAR ESPECIALISTAS E RECOMENDAR REFERÊNCIAS EM ARTIGOS CIENTÍFICOSORLANDO FONSECA GUILARTE 07 April 2020 (has links)
[pt] A revisão da literatura científica é um relato crítico dos principais
trabalhos em uma área ou tópico específico. Dessa forma, os autores buscam
a literatura e apresentam os artigos relevantes de forma organizada por data
de publicação e evolução de um tema de pesquisa. Revisões da literatura
fornecem uma fotografia do estado da arte de um tópico de pesquisa. Através
da seleção dos trabalhos mais importantes de uma certa área é possível
identificar os autores mais especializados na área ou em determinados
artigos, proporcionando assim uma solução para o problema de encontrar
potenciais candidatos especialistas. Nesta tese estudaremos o problema de
selecionar e visualizar os artigos mais relevantes que refletem a evolução
de um tópico de pesquisa. Para isso, propomos uma abordagem visual
colaborativa baseada em grafos para recomendar referências importantes.
Apresentamos também a tarefa de encontrar e classificar os autores dado
um artigo científico usando caminhos de citações relevantes. A partir de um
ranking de referências, o valor da expertise dos autores é calculado. Uma
metodologia é proposta para construir e atualizar o grafo de citações de
forma colaborativa com os votos dos especialistas. / [en] The scientific literature review is a critical account of the main papers
in a particular subject area or topic. In this way, the authors surveys
the literature and present the relevant articles in an organized way by
publication date and evolution of the research topic, which gives an overview
of the state of the art in a subject. Through these relevant papers it is
also possible to identify the most expert authors in the area or in certain
papers, thus providing a solution to the problem of finding potential expert
candidates. The main challenge of making a literature review is to identify
the most relevant articles that reflect the evolution of the different research
topics. In this thesis, we propose a visual collaborative approach that uses
graphs to recommend important references. In addition, we introduce the
task of searching and ranking authors given a target paper using relevant
citation paths. From a ranking of references, the value of the author s
expertise is calculated. A methodology is proposed in order to build and
update the citation graph in a collaborative way with the expert s votes.
|
126 |
[en] PROPOSAL OF A METHODOLOGY FOR THE PRODUCTION AND INTERPRETATION OF EDUCATIONAL MEASURES IN LARGE-SCALE ASSESSMENT BY USING RASCH MODELING WITH TWO OR MORE FACETS / [pt] PROPOSTA DE UMA METODOLOGIA PARA A PRODUÇÃO E INTERPRETAÇÃO DE MEDIDAS EDUCACIONAIS EM AVALIAÇÃO EM LARGA ESCALA POR MEIO DA UTILIZAÇÃO DA MODELAGEM RASCH COM DUAS OU MAIS FACETASWELLINGTON SILVA 18 February 2020 (has links)
[pt] Nesta tese, trabalhou-se com a modelagem Rasch visando a apresentar alternativas mais práticas e de melhor qualidade em termos de medida, para dois cenários distintos. O primeiro está relacionado ao fato de que medir conhecimento é algo muito complexo e de difícil entendimento para profissionais que não são da área da psicometria. Por meio de experimentos envolvendo modelos da família Rasch, apresentamos a aplicabilidade e as potencialidades dessa modelagem para atender a novas demandas de avaliação em larga escala no Brasil. O segundo cenário relaciona-se à busca de medir, de modo o mais imparcial possível, itens de produção escrita, em que a nota recebida pelos alunos é influenciada pela subjetividade dos corretores, ou seja, corretores lenientes beneficiam alunos e corretores severos penalizam alunos. Diante desses dois cenários, esta tese tem os seguintes objetivos: (i) trazer para o âmbito das avaliações realizadas no Brasil uma modelagem matemática mais simples que aquela atualmente adotada, visando uma melhor comunicação com os professores, e; (ii) a possibilidade de operar não apenas com itens de múltipla escolha, corrigidos de forma automática, mas também com itens de produção escrita, em que a subjetividade dos corretores (severidade) é controlada pelo modelo psicométrico, gerando medidas de melhor qualidade. Para isso, utilizou-se a modelagem Rasch com multifacetas, abordando, por meio de casos práticos, as vantagens dessa modelagem em relação a outras metodologias atualmente adotadas no país. Assim, para a alcançarmos o primeiro objetivo, confrontamos a modelagem Rasch com multifacetas com a modelagem de três parâmetros logísticos em um estudo de efeito contexto em testes compostos por diferentes modelos de cadernos e com mais de uma disciplina avaliada por caderno e, para o segundo, comparamos as medidas de proficiência através da Rasch com multifacetas com as notas médias das duplas correções dadas pelos corretores aos alunos em testes do tipo redação. A partir dos resultados encontrados, concluímos que a Rasch com multifacetas pode ser utilizada de forma alternativa ou concomitante com as avaliações que utilizam a modelagem de três parâmetros logísticos, produzindo resultados mais rápidos e de entendimento mais fácil por parte dos professores e que, no caso de redações, as proficiências obtidas pela Rasch com multifacetas apresentaram medidas com melhores indicadores de fidedignidade e validade, quando comparadas com as medidas de notas via Teoria Clássica do Teste, sendo, portanto, uma alternativa mais viável para esse tipo de avaliação. Conclui-se essa tese apresentando situações de empregabilidade das metodologias estudadas. / [en] In this thesis, we worked with Rasch modeling, aiming to present more practical alternatives and better quality in terms of measurement, for two different scenarios. The first one is related to the fact that measuring knowledge is something very complex and difficult to understand for professionals who are not in the psychometrics area. Through experiments involving the Rasch family models, we present the applicability and the potentiality of this model to adequately comply with the new demands of the large-scale evaluation in Brazil. The second scenario is related to the search of measuring, in the most impartial way possible, written production items which grade received by the subjectivity of the raters (severity), that is, lenient raters benefit students and severe raters penalize them. In view of these two scenarios, this thesis has the following objectives: (i) to bring to the scope of the evaluations carried out in Brazil a simpler mathematical modeling than the currently adopted, aiming at a better communication with the teachers; and (ii) the possibility of operating not only with multiple choice items, corrected automatically, but also with written production items, in which the subjectivity of the raters (severity) is controlled by the psychometric model, generating better quality measures. For this, Many-Facet Rasch Measurement was used, approaching, through practical cases, the advantages of this modeling in relation to other methodologies currently adopted in the country. Thus, in order to reach the first objective, we confronted Many-Facet Rasch Measurement with the modeling of three logistic parameters in a study of context effect in tests composed by different models of test books and with more than one discipline evaluated by test book and, for the second one, we compared the measures of proficiency through the Many-Facet Rasch Measurement with the average scores of the double corrections given by the raters to the students in tests of the essay type. From the results found, we conclude that the Many-Facet Rasch Measurement can be used in an alternative or concomitant way with the evaluations that use the three logistic parameters model, producing faster results and easier to understand by the teachers and that, in the case of essays, the measures of proficiency obtained by Many-Facet Rasch Measurement presented measures with better reliability and validity indicators, when compared to the grading measures through the Classical Theory of Testing, being, therefore, a more viable alternative for this type of evaluation. This thesis concludes with situations of usability of the methodologies studied.
|
127 |
[en] IDENTIFICATION OF PROTEIN SUBCELLULAR LOCALIZATION BY DEEP LEARNING TECHNIQUES / [pt] IDENTIFICAÇÃO DA LOCALIZAÇÃO SUBCELULAR DE PROTEÍNAS POR MEIO DE TÉCNICAS DE DEEP LEARNINGROBERTO BANDEIRA DE MELLO MORAIS DA SILVA 21 May 2020 (has links)
[pt] As proteínas são macromoléculas biológicas compostas por cadeias de aminoácidos, presentes em praticamente todos os processos celulares, sendo essenciais para o correto funcionamento do organismo humano. Existem diversos estudos em torno do proteoma humano a fim de se identificar quais são as funções de cada proteína nas diferentes células, tecidos e órgãos do corpo humano. A classificação destas proteínas em diferentes formas, como por exemplo a localização subcelular, é importante para diversas
aplicações da biomedicina. Com o avanço das tecnologias para obtenção de imagens das proteínas, tem-se que hoje estas são geradas em grande volume e mais rapidamente do que é possível classificá-las manualmente, o que torna importante o desenvolvimento de um classificador automático capaz
de realizar esta classificação de maneira eficaz. Dessa forma, esta dissertação buscou desenvolver algoritmos capazes de realizar a classificação automática de padrões mistos de localização subcelular de proteínas, por meio do uso de técnicas de Deep Learning. Inicialmente, fez-se uma revisão da literatura
em torno de redes neurais, Deep Learning e SVMs, e utilizou-se o banco de dados, publicamente disponíve, de imagens de células do Human Protein Atlas, para treinamento dos algoritmos de aprendizagem supervisionada. Diversos modelos foram desenvolvidos e avaliados, visando identificar aquele
com melhor desempenho na tarefa de classificação. Ao longo do trabalho foram desenvolvidas redes neurais artificiais convolucionais de topologia LeNet, ResNet e um modelo híbrido ResNet-SVM, tendo sido treinadas ao todo 81 redes neurais diferentes, a fim de se identificar o melhor conjunto de hiper-parâmetros. As análises efetuadas permitiram concluir que a rede de melhor desempenho foi uma variante da topologia ResNet, que obteve em suas métricas de desempenho uma acurácia de 0,94 e uma pontuação
F1 de 0,44 ao se avaliar o comportamento da rede frente ao conjunto de teste. Os resultados obtidos pela diferentes topologias analisadas foram detalhadamente avaliados e, com base nos resultados alcançados, foram sugeridos trabalhos futuros baseados em possíveis melhorias para as redes de melhor desempenho. / [en] Proteins are biological macromolecules composed of aminoacid chains, part of practically all cellular processes, being essential for the correct functioning of the human organism. There are many studies around the human protein aiming to identify the proteins’ functions in different cells, tissues and organs in the human body. The protein classification in many forms, such as the subcellular localization, is important for many biomedical applications. With the advance of protein image obtention technology, today these images are generated in large scale and faster than it is possible to manually classify them, which makes crucial the development of a system capable of classifying these images automatically and accurately. In that matter, this dissertation aimed to develop algorithms capable of automatically classifying proteins in mixed patterns of subcellular localization with the use of Deep Learning techniques. Initially, a literature review on neural networks, Deep Learning and SVMs, and a publicly available image database from the Human Protein Atlas was used to train the supervised learning algorithms. Many models were developed seeking the best performance in the classification task. Throughout this work, convolutional artificial neural networks of topologies LeNet, ResNet and a hybrid ResNet-SVM model were developed, with a total of 81 different neural networks trained, aiming to identify the best hyper-parameters. The analysis allowed the conclusion that the network with best performance was a ResNet variation, which obtained in its performance metrics an accuracy of 0.94 and an F1 score of 0.44 when evaluated against the test data. The obtained results of these topologies were detailedly evaluated and, based on the measured results,
future studies were suggested based on possible improvements for the neural networks that had the best performances.
|
128 |
[en] CONVOLUTIONAL NETWORKS APPLIED TO SEISMIC NOISE CLASSIFICATION / [pt] REDES CONVOLUCIONAIS APLICADAS À CLASSIFICAÇÃO DE RUÍDO SÍSMICOEDUARDO BETINE BUCKER 24 March 2021 (has links)
[pt] Modelos baseados em redes neurais profundas como as Redes Neurais Convolucionais proporcionaram avanços significativos em diversas áreas da computação. No entanto, essa tecnologia é ainda pouco aplicada à predição de qualidade sísmica, que é uma atividade relevante para exploração de hidrocarbonetos. Ser capaz de, rapidamente, classificar o ruído presente em aquisições de dados sísmicos permite aceitar ou rejeitar essas aquisições de forma eficiente, o que além de economizar recursos também melhora a interpretabilidade dos dados. Neste trabalho apresenta-se um dataset criado a partir de 6.918 aquisições manualmente classificadas pela percepção de especialistas e pesquisadores, que serviu de base para o treinamento, validação e testes de um classificador, também proposto neste trabalho, baseado em uma rede neural convolucional. Em resultados empíricos, observou-se-se um F1 Score de 95,58 porcento em uma validação cruzada de 10 folds e 93,56 porcento em um conjunto de holdout de teste. / [en] Deep Learning based models, such as Convolutional Neural Networks
(CNNs), have led to significant advances in several areas of computing applications.
Nevertheless, this technology is still rarely applied to seismic quality
prediction, which is a relevant task in hydrocarbon exploration. Being able
to promptly classify noise in common shot gather(CSG) acquisitions of seismic
data allows the acceptance or rejection of those aquisitions, not only
saving resources but also increasing the interpretability of data. In this work,
we introduce a real-world classification dataset based on 6.918 common shot
gather, manually labeled by perception of specialists and researches. We use
it to train a CNN classification model for seismic shot-gathers quality prediction.
In our empirical evaluation, we observed an F1 Score of 95,58 percent in
10 fold cross-validation and 93,56 percent in a Holdout Test.
|
129 |
[pt] DETECÇÃO DE CONTEÚDO SENSÍVEL EM VIDEO COM APRENDIZADO PROFUNDO / [en] SENSITIVE CONTENT DETECTION IN VIDEO WITH DEEP LEARNINGPEDRO VINICIUS ALMEIDA DE FREITAS 09 June 2022 (has links)
[pt] Grandes quantidades de vídeo são carregadas em plataformas de hospedagem de vídeo a cada minuto. Esse volume de dados apresenta um desafio no controle do tipo de conteúdo enviado para esses serviços de hospedagem de vídeo, pois essas plataformas são responsáveis por qualquer mídia
sensível enviada por seus usuários. Nesta dissertação, definimos conteúdo
sensível como sexo, violencia fisica extrema, gore ou cenas potencialmente
pertubadoras ao espectador. Apresentamos um conjunto de dados de vídeo
sensível para classificação binária de vídeo (se há conteúdo sensível no vídeo
ou não), contendo 127 mil vídeos anotados, cada um com seus embeddings
visuais e de áudio extraídos. Também treinamos e avaliamos quatro modelos
baseline para a tarefa de detecção de conteúdo sensível em vídeo. O modelo
com melhor desempenho obteve 99 por cento de F2-Score ponderado no nosso subconjunto de testes e 88,83 por cento no conjunto de dados Pornography-2k. / [en] Massive amounts of video are uploaded on video-hosting platforms
every minute. This volume of data presents a challenge in controlling the
type of content uploaded to these video hosting services, for those platforms
are responsible for any sensitive media uploaded by their users. There
has been an abundance of research on methods for developing automatic
detection of sensitive content. In this dissertation, we define sensitive
content as sex, extreme physical violence, gore, or any scenes potentially
disturbing to the viewer. We present a sensitive video dataset for binary
video classification (whether there is sensitive content in the video or not),
containing 127 thousand tagged videos, Each with their extracted audio and
visual embeddings. We also trained and evaluated four baseline models for
the sensitive content detection in video task. The best performing model
achieved 99 percent weighed F2-Score on our test subset and 88.83 percent on the
Pornography-2k dataset.
|
130 |
[en] DECISION TREES WITH EXPLAINABLE RULES / [pt] ÁRVORES DE DECISÃO COM REGRAS EXPLICÁVEISVICTOR FEITOSA DE CARVALHO SOUZA 04 August 2023 (has links)
[pt] As árvores de decisão são estruturas comumente utilizadas em cenários
nos quais modelos explicáveis de Aprendizado de Máquina são desejados, por
serem visualmente intuitivas. Na literatura existente, a busca por explicabilidade
em árvores envolve a minimização de métricas como altura e número de
nós. Nesse contexto, definimos uma métrica de explicabilidade, chamada de
explanation size, que reflete o número de atributos necessários para explicar
a classificação dos exemplos. Apresentamos também um algoritmo, intitulado
SER-DT, que obtém uma aproximação O(log n) (ótima se P diferente NP) para a
minimização da altura no pior caso ou caso médio, assim como do explanation
size no pior caso ou caso médio. Em uma série de experimentos, comparamos
a implementação de SER-DT com algoritmos conhecidos da área, como CART e
EC2, além de testarmos o impacto de parâmetros e estratégias de poda nesses
algoritmos. SER-DT mostrou-se competitivo em acurácia com os algoritmos
citados, mas gerou árvores muito mais explicáveis. / [en] Decision trees are commonly used structures in scenarios where explainable
Machine Learning models are desired, as they are visually intuitive. In
the existing literature, the search for explainability in trees involves minimizing
metrics such as depth and number of nodes. In this context, we define
an explainability metric, called explanation size, which reflects the number of
attributes needed to explain the classification of examples. We also present an
algorithm, called SER-DT, which obtains an O(log n) approximation (optimal
if P different NP) for the minimization of depth in the worst/average case, as well
as of explanation size in the worst/average case. In a series of experiments,
we compared the SER-DT implementation with well-known algorithms in the
field, such as CART and EC2 in addition to testing the impact of parameters
and pruning strategies on these algorithms. SER-DT proved to be competitive
in terms of accuracy with the aforementioned algorithms, but generated much
more explainable trees.
|
Page generated in 0.0739 seconds