• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 15
  • 12
  • Tagged with
  • 27
  • 27
  • 27
  • 27
  • 27
  • 11
  • 9
  • 8
  • 7
  • 7
  • 6
  • 6
  • 6
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

[en] DEEP-LEARNING-BASED SHAPE MATCHING FRAMEWORK ON 3D CAD MODELS / [pt] PARA CORRESPONDÊNCIA DE FORMAS BASEADO EM APRENDIZADO PROFUNDO EM MODELOS CAD 3D

LUCAS CARACAS DE FIGUEIREDO 11 November 2022 (has links)
[pt] Modelos CAD 3D ricos em dados são essenciais durante os diferentes estágios do ciclo de vida de projetos de engenharia. Devido à recente popularização da metodologia Modelagem de Informação da Construção e do uso de Gêmeos Digitais para a manufatura inteligente, a quantidade de detalhes, o tamanho, e a complexidade desses modelos aumentaram significativamente. Apesar desses modelos serem compostos de várias geometrias repetidas, os softwares de projeto de plantas geralmente não proveem nenhuma informação de instanciação. Trabalhos anteriores demonstraram que removendo a redundância na representação dos modelos CAD 3D reduz significativamente o armazenamento e requisição de memória deles, ao passo que facilita otimizações de renderização. Este trabalho propõe um arcabouço para correspondência de formas baseado em aprendizado profundo que minimiza as informações redundantes de um modelo CAD 3D a esse respeito. Nos apoiamos nos avanços recentes no processamento profundo de nuvens de pontos, superando desvantagens de trabalhos anteriores, como a forte dependencia da ordenação dos vértices e topologia das malhas de triângulos. O arcabouço desenvolvido utiliza nuvens de pontos uniformemente amostradas para identificar similaridades entre malhas em modelos CAD 3D e computam uma matriz de transformação afim ótima para instancia-las. Resultados em modelos CAD 3D reais demonstram o valor do arcabouço proposto. O procedimento de registro de nuvem de pontos desenvolvido atinge um erro de superfície menor, ao mesmo tempo que executa mais rápido que abordagens anteriores. A abordagem supervisionada de classificação desenvolvida antinge resultados equivalentes em comparação com métodos limitados anteriores e os superou significativamente num cenário de embaralhamento de vértices. Propomos também uma abordagem auto-supervisionada que agrupa malhas semelhantes e supera a necessidade de rotular explicitamente as geometrias no modelo CAD 3D. Este método auto-supervisionado obtém resultados competitivos quando comparados às abordagens anteriores, até mesmo superando-as em determinados cenários. / [en] Data-rich 3D CAD models are essential during different life-cycle stages of engineering projects. Due to the recent popularization of Build Information Modeling methodology and the use of Digital Twins for intelligent manufacturing, the amount of detail, size, and complexity of these models have significantly increased. Although these models are composed of several repeated geometries, plant-design software usually does not provide any instancing information. Previous works have shown that removing redundancy in the representation of 3D CAD models significantly reduces their storage and memory requirements, whilst facilitating rendering optimizations. This work proposes a deep-learning-based shape-matching framework that minimizes a 3D CAD model s redundant information in this regard. We rely on recent advances in the deep processing of point clouds, overcoming drawbacks from previous work, such as heavy dependency on vertex ordering and topology of triangle meshes. The developed framework uses uniformly sampled point clouds to identify similarities among meshes in 3D CAD models and computes an optimal affine transformation matrix to instantiate them. Results on actual 3D CAD models demonstrate the value of the proposed framework. The developed point-cloud-registration procedure achieves a lower surface error while also performing faster than previous approaches. The developed supervised-classification approach achieves equivalent results compared to earlier, limited methods and significantly outperformed them in a vertex shuffling scenario. We also propose a selfsupervised approach that clusters similar meshes and overcomes the need for explicitly labeling geometries in the 3D CAD model. This self-supervised method obtains competitive results when compared to previous approaches, even outperforming them in certain scenarios.
12

[en] INCLUSION OF NON-SYMBOLIC HUMAN AGENCIES THROUGH DEEP LEARNING IN COMPUTATIONAL DESIGN PROCESSES / [pt] INCLUSÃO DE AGÊNCIAS HUMANAS NÃO SIMBÓLICAS ATRAVÉS DE TÉCNICAS DE APRENDIZADO PROFUNDO EM PROCESSOS DE DESIGN COMPUTACIONAL GENERATIVO

DANIEL RIBEIRO ALVES BARBOZA VIANNA 03 January 2024 (has links)
[pt] O Design Computacional Generativo é uma forma de Design que consegue gerar uma quantidade virtualmente infinita de possíveis soluções e filtrá-las através de análises computacionais. Cada análise, experimenta e gradua uma demanda, que pode ser relacionada a diversos entes e como estes afetam e são afetados por um design. Dessa maneira, essas análises podem ser entendidas como uma forma de incluir de maneira integrada diversos fatores na síntese da forma do Design. Mesmo com todo esse potencial, as abordagens baseadas no Design Computacional Generativo ainda enfrentam dificuldades na análise e na inclusão de algumas demandas, principalmente naquelas de natureza subjetiva. Isso vem mudando devido a recente introdução de técnicas de Aprendizado Profundo no Design. Essas ferramentas conseguem captar conhecimentos implícitos através da sua aptidão para encontrar padrões em grandes quantidades de dados e replicá-los. Assim, elas podem replicar a avaliação de um designer humano. Essa pesquisa foca especificamente nas análises de critérios processados pelas capacidades humanas não simbólicas. Essas capacidades são aquelas que os humanos partilham com os animais vertebrados e permitem a compreensão de significados e o acionamento de ações sem a necessidade de linguagem. Essas capacidades possuem ao mesmo tempo um caráter objetivo, porque possuem uma base biológica comum a todos os humanos; e subjetivo, porque são influenciadas pelo estado psíquico, pelas motivações e pela experiência de um sujeito. Nesse contexto, o problema identificado é que sem um embasamento teórico essas técnicas acabam se limitando a um exercício fantasioso e ingênuo de automação de Design. Portanto, esta pesquisa parte da hipótese de que um embasamento teórico de conhecimentos da Teoria Pós- humana, da neurociência Conexionista e das Teorias de Fundamentos do Design possibilita que estímulos humanos não simbólicos possam ser incluídos de maneira efetiva na síntese da forma de processos de Design Computacional Generativo através de técnicas de Aprendizado Profundo. O objetivo do trabalho é compreender como a inserção dessas novas técnicas associadas a uma fundamentação teórica específica, vão propiciar a inclusão de fatores não- simbólicas na síntese da forma em processos de Design Computacional Generativo. Para atingir esse objetivo, a pesquisa propõe a elaboração de um conjunto de diretrizes, de uma estrutura metodológica conceitual e de um experimento prático que verifique o funcionamento da avaliação através de máquinas de Aprendizado Profundo. Esses três itens partem do estado da arte da interseção entre o Design Computacional Generativo e as técnicas de Aprendizado Profundo e se baseiam nos conhecimentos Pós-humanos, da neurociência Conexionista e das teorias de Fundamentos do Design. A pesquisa entrelaça dois temas atuais e significativos para o Campo do Design. De um lado, ela busca conhecimentos que preparem os designers para as transformações que a incorporação das técnicas recentes de inteligência artificial vem causando; e de outro, ela se insere nos esforços para que o Design seja um instrumento de transformação da sociedade através de uma reaproximação com as capacidades não simbólicas. / [en] Generative Computational Design is a form of Design that manages to generate a virtually infinite amount of possible solutions and filter them through computational analysis. Each analysis experiences and grades a demand, which can be related to different entities and how they affect and are affected by a design. In this way, these analyzes can be understood as a way of including in an integrated way several factors in the synthesis of the form of Design. Even with all this potential, approaches based on Generative Computational Design still face difficulties in analyzing and including some demands, especially those of a subjective nature. This has been changing due to the recent introduction of Deep Learning techniques in Design. These tools are able to capture implicit knowledge through their ability to find patterns in large amounts of data and replicate them. Thus, they can replicate the assessment of a human designer. This research specifically focuses on the analysis of criteria processed by non-symbolic human capacities. These capabilities are those that humans share with vertebrate animals and allow them the understanding of meanings and the triggering of actions without the need for language. These capacities have at the same time an objective character, because they have a biological basis common to all humans; and subjective, because they are influenced by a subject s psychic state, motivations and experience. In this context, the problem identified is that without a theoretical basis these techniques end up being limited to a fanciful and naive exercise in Design automation and simplistic approaches to style transfer. Thus, this research starts from the hypothesis that a theoretical foundation of knowledge from the Post- Human Theory, from the connectionist neuroscience and from the Fundamental Theories of Design can enable non-symbolic human factors to be effectively included in the synthesis of the form of processes of Generative Computational Design through Deep Learning techniques. The objective of this work is to understand how the insertion of these new techniques associated with a specific theoretical foundation will enable the inclusion of non-symbolic factors in the synthesis of form in Generative Computational Design processes. To achieve this objective, the research proposes the elaboration of a conceptual methodological framework based on the state of the art of the intersection between Generative Computational Design and Deep Learning techniques associated with Post-human knowledge, connectionist neuroscience and Design Foundations theories; as well as the verification of the operation of the technique through the execution of a practical experimental procedure. The research intertwines two current and significant themes for the Field of Design. On the one hand, it seeks knowledge that prepares designers for the transformations that the incorporation of recent artificial intelligence techniques has caused; and on the other hand, it is part of efforts to make Design an instrument for transforming society through a rapprochement with non-symbolic capacities.
13

[pt] APRENDIZADO PROFUNDO APLICADO À SEGMENTAÇÃO DE TEXTO / [en] DEEP LEARNING APPLIED TO TEXT CHUNKING

MIGUEL MENDES DE BRITO 15 May 2019 (has links)
[pt] O Processamento de Linguagem natural é uma área de pesquisa que explora como computadores podem entender e manipular textos em linguagem natural. Dentre as tarefas mais conhecidas em PLN está a de rotular sequências de texto. O problema de segmentação de texto em sintagmas é um dos problemas que pode ser abordado como rotulagem de sequências. Para isto, classificamos quais palavras pertencem a um sintagma, onde cada sintagma representa um grupo disjunto de palavras sintaticamente correlacionadas. Este tipo de segmentação possui importantes aplicações em tarefas mais complexas de processamento de linguagem natural, como análise de dependências, tradução automática, anotação de papéis semânticos, identificação de orações e outras. O objetivo deste trabalho é apresentar uma arquitetura de rede neural profunda para o problema de segmentação textual em sintagmas para a língua portuguesa. O corpus usado nos experimentos é o Bosque, do projeto Floresta Sintá(c)tica. Baseado em trabalhos recentes na área, nossa abordagem supera o estado-da-arte para o português ao alcançar um F(beta)=1 de 90,51, que corresponde a um aumento de 2,56 em comparação com o trabalho anterior. Além disso, como forma de comprovar a qualidade do segmentador, usamos os rótulos obtidos pelo nosso sistema como um dos atributos de entrada para a tarefa de análise de dependências. Esses atributos melhoraram a acurácia do analisador em 0,87. / [en] Natural Language Processing is a research field that explores how computers can understand and manipulate natural language texts. Sequence tagging is amongst the most well-known tasks in NLP. Text Chunking is one of the problems that can be approached as a sequence tagging problem. Thus, we classify which words belong to a chunk, where each chunk represents a disjoint group of syntactically correlated words. This type of chunking has important applications in more complex tasks of natural language processing, such as dependency parsing, machine translation, semantic role labeling, clause identification and much more. The goal of this work is to present a deep neural network archtecture for the Portuguese text chunking problem. The corpus used in the experiments is the Bosque, from the Floresta Sintá(c)tica project. Based on recent work in the field, our approach surpass the state-of-the-art for Portuguese by achieving a F(beta)=1 of 90.51, which corresponds to an increase of 2.56 in comparison with the previous work. In addition, in order to attest the chunker effectiveness we use the tags obtained by our system as feature for the depedency parsing task. These features improved the accuracy of the parser by 0.87.
14

[en] DEEP GENERATIVE MODELS FOR RESERVOIR DATA: AN APPLICATION IN SMART WELLS / [pt] MODELOS GENERATIVOS PROFUNDOS PARA DADOS DE RESERVATÓRIO: UMA APLICAÇÃO EM POÇOS INTELIGENTES

ALLAN GURWICZ 27 May 2020 (has links)
[pt] Simulação de reservatório, que por meio de equações complexas emula fluxo em modelos de reservatório, é primordial à indústria de Óleo e Gás. Estimando o comportamento do reservatório dadas diferentes condições de entrada, permite que especialistas otimizem diversos parâmetros na etapa de projeto de campos de petróleo. Entretanto, o tempo computacional necessário para simulações está diretamente correlacionado à complexidade do modelo, que cresce exponencialmente a cada dia que se passa, já que modelos mais detalhados são necessários dada a busca por maior refinamento e redução de incertezas. Deste modo, técnicas de otimização que poderiam significativamente melhorar os resultados de desenvolvimentos de campo podem se tornar inviáveis. Este trabalho propõe o uso de modelos generativos profundos para a geração de dados de reservatório, que podem então ser utilizados para múltiplos propósitos. Modelos generativos profundos são sistemas capazes de modelar estruturas de dados complexas, e que após treinamento robusto são capazes de amostrar dados que seguem a distribuição do conjunto de dados original. A presente aplicação foca em poços inteligentes, uma tecnologia de completação que traz diversas vantagens, dentre as quais uma melhor habilidade de monitoramento e gerenciamento de reservatórios, apesar de carregar um aumento significativo no investimento do projeto. Assim, essas otimizações previamente mencionadas se tornam indispensáveis, de forma a garantir a adoção da tecnologia, junto ao seu máximo retorno. De modo a tornar otimizações de controle de poços inteligentes viáveis dentro de um prazo razoável, redes generativas adversariais são aqui usadas para amostrar conjuntos de dados após um número relativamente pequeno de cenários simulados. Esses dados são então utilizados para o treinamento de aproximadores, algoritmos capazes de substituir o simulador de reservatório e acelerar consideravelmente metodologias de otimização. Estudos de caso foram realizados em modelos referência da indústria, tanto relativamente simples quanto complexos, comparando arquiteturas de redes e validando cada passo da metodologia. No modelo complexo, mais próximo de um cenário real, a metodologia foi capaz de reduzir o erro do aproximador de uma média de 18.93 por cento, para 9.71 por cento. / [en] Reservoir simulation, which via complex equations emulates flow in reservoir models, is paramount to the Oil e Gas industry. By estimating the behavior of the reservoir given different input conditions, it allows specialists to optimize various parameters in the oilfield project stage. Alas, the computational time needed for simulations is directly correlated to the complexity of the model, which grows exponentially with each passing day as more intricate and detailed reservoir models are needed, seeking better refinement and uncertainty reduction. As such, optimization techniques which could greatly improve the results of field developments may be made unfeasible. This work proposes the use of deep generative models for the generation of reservoir data, which may then be used for multiple purposes. Deep generative models are systems capable of modeling complex data structures, which after robust training are capable of sampling data following the same distribution of the original dataset. The present application focuses on smart wells, a technology for completions which brings about a plethora of advantages, among which the better ability for reservoir monitoring and management, although also carrying a significant increase in project investment. As such, these previously mentioned optimizations turn indispensable as to guarantee the adoption of the technology, along with its maximum possible return. As to make smart well control optimizations viable within a reasonable time frame, generative adversarial networks are here used to sample datasets after a relatively small number of simulated scenarios. These datasets are then used for the training of proxies, algorithms able to substitute the reservoir simulator and considerably speed up optimization methodologies. Case studies were done in both relatively simple and complex industry benchmark models, comparing network architectures and validating each step of the methodology. In the complex model, closest to a real-world scenario, the methodology was able to reduce the proxy error from an average of 18.93 percent, to 9.71 percent.
15

[en] A COMPARISON OF DEEP LEARNING TECHNIQUES FOR DEFORESTATION DETECTION IN THE BRAZILIAN AMAZON AND CERRADO BIOMES FROM REMOTE SENSING IMAGERY / [pt] COMPARAÇÃO DE TÉCNICAS DE DEEP LEARNING PARA DETECÇÃO DE DESMATAMENTO EM BIOMAS DA AMAZÔNIA E CERRADO BRASILEIROS A PARTIR DE IMAGENS DE SENSORIAMENTO REMOTO

MABEL XIMENA ORTEGA ADARME 04 May 2020 (has links)
[pt] O desmatamento é uma das principais causas de redução da biodiversidade, mudança climática e outros fenômenos destrutivos. Assim, a detecção antecipada de desmatamento é de suma importância. Técnicas baseadas em imagens de satélite são uma das opções mais iteresantes para esta aplicação. No entanto, muitos trabalhos desenvolvidos incluem algumas operações manuais ou dependência de um limiar para identificar regiões que sofrem desmatamento ou não. Motivado por este cenário, a presente dissertação apresenta uma avaliação de métodos para detecção automática de desmatamento, especificamente de Early Fusion (EF) Convolutional Network, Siamese Convolutional Network (SN), Convolutional Support Vector Machine (CSVM) e Support Vector Machine (SVM), o último tomado como baseline. Todos os métodos foram avaliados em regiões dos biomas brasileiros Amazônia e Cerrado. Duas imagens Landsat 8 adquiridas em diferentes datas foram utilizadas nos experimentos, e também o impacto do tamanho do conjunto de treinamento foi analisado. Os resultados demonstraram que as abordagens baseadas no Deep Learning superaram claramente o baseline SVM em termos de pontuação F1-score e Overrall Accuracy, com uma superioridade de SN e EF sobre CSVM e SVM. Da mesma forma, uma redução do efeito sal e pimenta nos mapas de mudança gerados foi notada devido, principalmente ao aumento de amostras nos conjuntos de treinamento. Finalmente, realizou-se uma análise visando avaliar como os métodos podem reduzir o esforço humano na inspeção visual das áreas desmatadas. / [en] Deforestation is one of the main causes of biodiversity reduction, climate change, among other destructive phenomena. Thus, early detection of deforestation processes is of paramount importance. Techniques based on satellite images are one of the most attractive options for this application. However, many works developed include some manual operations or dependency on a threshold to identify regions that suffer deforestation or not. Motivated by this scenario, the present dissertation presents an evaluation of methods for automatic deforestation detection, specifically Early Fusion (EF) Convolutional Network, Siamese Convolutional Network (SN), Convolutional Support Vector Machine (CSVM) and Support Vector Machine (SVM), taken as the baseline. These methods were evaluated in regions of Brazilian Amazon and Cerrado Biomes. Two Landsat 8 images acquired at different dates were used in the experiments, and the impact of training set size was also analyzed. The results demonstrated that Deep Learning-based approaches clearly outperformed the SVM baseline in our approaches, both in terms of F1-score and Overall Accuracy, with the superiority of SN and EF over CSVM and SVM. In the same way, a reduction of the salt-and-pepper effect in the generated probabilistic change maps was noticed due, mainly, to the increase of samples in the training sets. Finally, an analysis was carried out to assess how the methods can reduce the time invested in the visual inspection of deforested areas.
16

[pt] APLICAÇÃO DE REDES TOTALMENTE CONVOLUCIONAIS PARA A SEGMENTAÇÃO SEMÂNTICA DE IMAGENS DE DRONES, AÉREAS E ORBITAIS / [en] APPLYING FULLY CONVOLUTIONAL ARCHITECTURES FOR THE SEMANTIC SEGMENTATION OF UAV, AIRBORN, AND SATELLITE REMOTE SENSING IMAGERY

14 December 2020 (has links)
[pt] A crescente disponibilidade de dados de sensoriamento remoto vem criando novas oportunidades e desafios em aplicações de monitoramento de processos naturais e antropogénicos em escala global. Nos últimos anos, as técnicas de aprendizado profundo tornaram-se o estado da arte na análise de dados de sensoriamento remoto devido sobretudo à sua capacidade de aprender automaticamente atributos discriminativos a partir de grandes volumes de dados. Um dos problemas chave em análise de imagens é a segmentação semântica, também conhecida como rotulação de pixels. Trata-se de atribuir uma classe a cada sítio de imagem. As chamadas redes totalmente convolucionais de prestam a esta função. Os anos recentes têm testemunhado inúmeras propostas de arquiteturas de redes totalmente convolucionais que têm sido adaptadas para a segmentação de dados de observação da Terra. O presente trabalho avalias cinco arquiteturas de redes totalmente convolucionais que representam o estado da arte em segmentação semântica de imagens de sensoriamento remoto. A avaliação considera dados provenientes de diferentes plataformas: veículos aéreos não tripulados, aeronaves e satélites. Cada um destes dados refere-se a aplicações diferentes: segmentação de espécie arbórea, segmentação de telhados e desmatamento. O desempenho das redes é avaliado experimentalmente em termos de acurácia e da carga computacional associada. O estudo também avalia os benefícios da utilização do Campos Aleatórios Condicionais (CRF) como etapa de pósprocessamento para melhorar a acurácia dos mapas de segmentação. / [en] The increasing availability of remote sensing data has created new opportunities and challenges for monitoring natural and anthropogenic processes on a global scale. In recent years, deep learning techniques have become state of the art in remote sensing data analysis, mainly due to their ability to learn discriminative attributes from large volumes of data automatically. One of the critical problems in image analysis is the semantic segmentation, also known as pixel labeling. It involves assigning a class to each image site. The so-called fully convolutional networks are specifically designed for this task. Recent years have witnessed numerous proposals for fully convolutional network architectures that have been adapted for the segmentation of Earth observation data. The present work evaluates five fully convolutional network architectures that represent the state of the art in semantic segmentation of remote sensing images. The assessment considers data from different platforms: unmanned aerial vehicles, airplanes, and satellites. Three applications are addressed: segmentation of tree species, segmentation of roofs, and deforestation. The performance of the networks is evaluated experimentally in terms of accuracy and the associated computational load. The study also assesses the benefits of using Conditional Random Fields (CRF) as a post-processing step to improve the accuracy of segmentation maps.
17

[pt] ASSIMILAÇÃO DE DADOS INTEGRADA A TÉCNICAS DE TRADUÇÃO IMAGEM-IMAGEM APLICADA A MODELOS DE RESERVATÓRIOS / [en] DATA ASSIMILATION INTEGRATED WITH IMAGE-TO-IMAGE TRANSLATION NETWORKS APPLIED TO RESERVOIR MODELS.

VITOR HESPANHOL CORTES 22 June 2023 (has links)
[pt] A incorporação de dados de produção a modelos de reservatórios é uma etapa fundamental para se estimar adequadamente a recuperação de uma jazida de petróleo e, na última década, o método ensemble smoother with multiple data assimilation (ES-MDA) tem se destacado dentre as estratégias disponíveis para realizar tal tarefa. Entretanto, este é um método que apresenta melhores resultados quando os parâmetros a serem ajustados no modelo são caracterizados por uma distribuição de probabilidades próxima à gaussiana, apresentando um desempenho reduzido ao lidar com o ajuste de parâmetros categóricos, como por exemplo as fácies geológicas. Uma proposta para lidar com esse problema é recorrer a redes de aprendizado profundo, em particular redes para tradução imagem-imagem (I2I), valendo-se da analogia existente entre a representação matricial de imagem e a estrutura em malha das propriedades de um modelo de reservatórios. Assim, é possível adaptar a arquitetura de redes I2I disponíveis e treiná-las para, a partir de uma matriz de parâmetros contínuos que serão ajustados pelo método ES-MDA (como porosidade e permeabilidade), gerar a representação matricial do parâmetro categórico correspondente (fácies), de forma similar à tarefa de segmentação semântica no contexto de imagens. Portanto, o parâmetro categórico seria atualizado de maneira indireta pelo método ES-MDA, sendo a sua reconstrução realizada pela rede I2I. / [en] Reservoir model data assimilation is a key step to properly estimate the final recovery of an oil field and, in the last decade, the ensemble smoother with multiple data assimilation method (ES-MDA) has stood out among all available strategies to perform this task. However, this method achieves better results when model parameters are described by an approximately Gaussian distribution and hence presents reduced performance when dealing with categorical parameters, such as geological facies. An alternative to deal with this issue is to adopt a deep learning based approach, particularly using image-to-image translation (I2I) networks and taking into account the analogy between the matrix representation of images and the reservoir model grid properties. Thus, it is possible to adapt I2I network architectures, training them to generate the categorical parameter (facies) from its correlated continuous properties modified by the ES-MDA method (such as porosity and permeability), similar to semantic segmentation tasks in an image translation context. Therefore, the categorical parameter would be indirectly updated by the ES-MDA method, with its reconstruction carried out by the I2I network.
18

[pt] APRENDIZADO PROFUNDO APLICADO NA LOCALIZAÇÃO DE CORPOS ESTRANHOS FERROMAGNÉTICOS EM HUMANOS / [en] DEEP LEARNING APPLIED TO LOCATING FERROMAGNETIC FOREIGN BODIES IN HUMANS

MARCOS ROGOZINSKI 19 January 2022 (has links)
[pt] Corpos estranhos ferromagnéticos inseridos acidentalmente em pacientes geralmente precisam de remoção cirúrgica. Os métodos convencionalmente empregados para localizar corpos estranhos são frequentemente ineficazes devido à baixa precisão na determinação da posição do objeto e representam riscos decorrentes da exposição da equipe médica e dos pacientes à radiação ionizante durante procedimentos de longa duração. Novos métodos utilizando sensores SQUID têm obtido sucesso na localização de corpos estranhos de forma inócua e não invasiva, mas têm a desvantagem de apresentar alto custo e baixa portabilidade. Este trabalho faz parte de pesquisas que buscam trazer maior portabilidade e baixo custo na localização de corpos estranhos no corpo humano utilizando sensores GMI e GMR. O objetivo principal deste trabalho é avaliar e aplicar o uso de Aprendizado Profundo para a localização de corpos estranhos ferromagnéticos no corpo humano utilizando um dispositivo portátil e manual baseado em magnetômetro GMR, incluindo o rastreamento da posição e orientação deste dispositivo a partir de imagens de padrões conhecidos obtidas por uma câmera integrada ao dispositivo e a solução do problema inverso magnético a partir do mapeamento magnético obtido. As técnicas apresentadas se mostraram capazes de rastrear o dispositivo com boa precisão e detectar a localização do corpo estranho com resultados semelhantes ou melhores do que os obtidos em trabalhos anteriores, dependendo do parâmetro. Os resultados obtidos são promissores como base para desenvolvimentos futuros. / [en] Ferromagnetic foreign bodies accidentally inserted in patients usually need to be surgically removed. The methods conventionally employed for locating foreign bodies are often ineffective due to the low accuracy in determining the position of the object and pose risks arising from the exposure of medical staff and patients to ionizing radiation during long-term procedures. New methods using SQUID sensors successfully located foreign bodies in an innocuous and noninvasive way, but they have the drawback of presenting high cost and low portability. This work is part of new research that seeks to bring greater portability and low cost in locating foreign bodies in the human body using GMI and GMR sensors. The main objective of this work is to evaluate and apply the use of Deep Learning in the development of a portable and manual device based on a GMR sensor, including position tracking and orientation of this device from images of known patterns obtained by a camera integrated to the device and the solution of the inverse magnetic problem from the obtained magnetic mapping. The techniques presented are capable of tracking the device with good accuracy and detecting the localization of the foreign body with similar or better results than those obtained in previous works, depending on the parameter. The results obtained are promising as a basis for future developments.
19

[pt] DESAGREGAÇÃO DE CARGAS EM UM DATASET COLETADO EM UMA INDÚSTRIA BRASILEIRA UTILIZANDO AUTOENCODERS VARIACIONAIS E REDES INVERSÍVEIS / [en] LOAD DISAGGREGATION IN A BRAZILIAN INDUSTRIAL DATASET USING INVERTIBLE NETWORKS AND VARIATIONAL AUTOENCODERS

EDUARDO SANTORO MORGAN 05 August 2021 (has links)
[pt] Desagregação de cargas é a tarefa de estimar o consumo individual de aparelhos elétricos a partir de medições de consumo de energia coletadas em um único ponto, em geral no quadro de distribuição do circuito. Este trabalho explora o uso de técnicas de aprendizado de máquina para esta tarefa, em uma base de dados coletada em uma fábrica de ração de aves no Brasil. É proposto um modelo combinando arquiteturas de autoencoders variacionais com as de fluxos normalizantes inversíveis. Os resultados obtidos são, de maneira geral, superiores aos melhores resultados reportados para esta base de dados até então, os superando em até 86 por cento no Erro do Sinal Agregado e em até 81 por cento no Erro de Desagregação Normalizado dependendo do equipamento desagregado. / [en] Load Disaggregation is the task of estimating appliance-level consumption from a single aggregate consumption metering point. This work explores machine learning techniques applied to an industrial load disaggregation dataset from a poultry feed factory in Brazil. It proposes a model that combines variational autoencoders with invertible normalizing flows models. The results obtained are, in general, better than the current best reported results for this dataset, outperforming them by up to 86 percent in the Signal Aggregate Error and by up to 81 percent in the Normalized Disaggregation Error.
20

[en] EXPLAINABLE ARTIFICIAL INTELLIGENCE FOR MEDICAL IMAGE CLASSIFIERS / [pt] INTELIGÊNCIA ARTIFICIAL EXPLICÁVEL PARA CLASSIFICADORES DE IMAGENS MÉDICAS

IAM PALATNIK DE SOUSA 02 July 2021 (has links)
[pt] A inteligência artificial tem gerado resultados promissores na área médica, especialmente na última década. Contudo, os modelos de melhor desempenho apresentam opacidade em relação ao seu funcionamento interno. Nesta tese, são apresentadas novas metodologias e abordagens para o desenvolvimento de classificadores explicáveis de imagens médicas. Dois principais métodos, Squaregrid e EvEx, foram desenvolvidos. O primeiro consiste em uma geração mais grosseira, porém rápida, de heatmaps explicativos via segmentações em grades quadrados, enquanto o segundo baseia-se em otimização multi-objetivo, baseada em computação evolucionária, visando ao ajuste fino de parâmetros de segmentação. Notavelmente, ambas as técnicas são agnósticas ao modelo, o que facilita sua utilização para qualquer tipo de classificador de imagens. O potencial destas abordagens foi avaliado em três estudos de caso de classificações médicas: metástases em linfonodos, malária e COVID-19. Para alguns destes casos foram analisados modelos de classificação existentes, publicamente disponíveis. Por outro lado, em outros estudos de caso, novos modelos tiveram que ser treinados. No caso do estudo de COVID-19, a ResNet50 treinada levou a F-scores acima de 0,9 para o conjunto de teste de uma competição para classificação de coronavirus, levando ao terceiro lugar geral. Adicionalmente, técnicas de inteligência artificial já existentes como LIME e GradCAM, bem como Vanilla, Smooth e Integrated Gradients também foram usadas para gerar heatmaps e possibilitar comparações. Os resultados aqui descritos ajudaram a demonstrar e preencher parcialmente lacunas associadas à integração das áreas de inteligência artificial explicável e medicina. Eles também ajudaram a demonstrar que as diferentes abordagens de inteligência artificial explicável podem gerar heatmaps que focam em características diferentes da imagem. Isso por sua vez demonstra a importância de combinar abordagens para criar um panorama mais completo sobre os modelos classificadores, bem como extrair informações sobre o que estes aprendem. / [en] Artificial Intelligence has generated promissing results for the medical area, especially on the last decade. However, the best performing models present opacity when it comes to their internal working. In this thesis, methodologies and approaches are presented for the develpoment of explainable classifiers of medical images. Two main methods, Squaregrid and EvEx, were developed. The first consistts in a rough, but fast, generation of heatmaps via segmentations in square grids, and the second in genetic multi objective optimizations aiming at the fine-tuning of segmentation parameters. Notably, both techniques are agnostic to the model,which facilitates their utilization for any kind of image classifier. The potential of these approaches was demonstrated in three case studies of medical classifications: lymph node mestastases, malária and COVID-19. In some of these cases, already existing classifier models were analyzed, while in some others new models were trained. For the COVID-19 study, the trained ResNet50 provided F-scores above 0.9 in a test set from a coronavirus classification competition, resulting in the third place overall. Additionally, already existing explainable artificial intelligence techniques, such as LIME and GradCAM, as well as Vanilla, Smooth and Integrated Gradients, were also used to generate heatmaps and enable comparisons. The results here described help to demonstrate and improve the gaps in integrating the areas of explainable artificial intelligence and medicine. They also aided in demonstrating that the different types of approaches in explainable artificial intelligence can generate heatmaps that focus on different characteristics of the image. This shows the importance of combining approaches to create a more complete overview of classifier models, as well as extracting informations about what they learned from data.

Page generated in 0.4332 seconds