• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 262
  • 17
  • 4
  • 1
  • Tagged with
  • 285
  • 285
  • 229
  • 212
  • 67
  • 63
  • 61
  • 47
  • 47
  • 41
  • 39
  • 35
  • 35
  • 34
  • 32
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
281

Estudo de porosidade por processamento de imagens aplicada a patologias do concreto / Computer vision system for identification of alkali aggregate in concrete image

Rodrigo Erthal Wilson 11 August 2015 (has links)
A reação álcali-agregado - RAA é uma patologia de ação lenta que tem sido observada em construções de concreto capaz de comprometer suas estruturas. Sabe-se que a reação álcali-agregado é um fenômeno bastante complexo em virtude da grande variedade de rochas na natureza que são empregadas como agregados no preparo do concreto, podendo cada mineral utilizado afetar de forma distinta a reação ocorrida. Em função dos tipos de estrutura, das suas condições de exposição e dos materiais empregados, a RAA não se comporta sempre da mesma forma, em virtude disto a pesquisa constante neste tema é necessária para o meio técnico e a sociedade. Pesquisas laboratoriais, empíricas e experimentais tem sido rotina em muitos dos estudos da RAA dada ainda à carência de certas definições mais precisas a respeito dos métodos de ensaio, mas também em função da necessidade do melhor conhecimento dos materiais de uso em concretos como os agregados, cimentos, adições, aditivos entre outros e do comportamento da estrutura. Embora técnicas de prevenção possam reduzir significativamente a incidência da RAA, muitas estruturas foram construídas antes que tais medidas fossem conhecidas, havendo no Brasil vários casos de estruturas afetadas, sendo custosos os reparos dessas estruturas. Em estudos recentes sobre o tamanho das partículas de álcali-agregado e sua distribuição foi concluído que o tamanho do agregado está relacionado com o potencial danoso da RAA. Existem ainda indícios de que o tamanho e a distribuição dos poros do concreto também sejam capazes de influenciar o potencial reativo do concreto. Neste trabalho desenvolvemos um Sistema de Visão Artificial (SVA) que, com o uso de técnicas de Processamento de Imagens, é capaz de identificar em imagens de concreto, agregado e poros que atendam em sua forma, às especificações do usuário, possibilitando o cálculo da porosidade e produzindo imagens segmentadas à partir das quais será possível extrair dados relativos à geometria desses elementos. Serão feitas duas abordagens para a obtenção das imagens, uma por Escâner Comercial, que possui vantagens relacionadas à facilidade de aquisição do equipamento, e outra por micro tomógrafo. Uma vez obtidas informações sobre as amostras de concreto, estas podem ser utilizadas para pesquisar a RAA, comparar estruturas de risco com estruturas antigas de forma a melhorar a previsão de risco de ocorrência, bem como serem aplicadas a outras no estudo de outras patologias do concreto menos comuns no nosso país, como o efeito gelo/degelo. / The alkali-aggregate reaction - RAA is a condition of slow action that has been observed in concrete constructions that could affect their structures. It is known that the alkali-aggregate reaction is a very complex phenomenon because of the great variety of rocks in nature that are used as aggregates for concrete, and each mineral used differently affects the reaction occurred. Depending on the type of structure, its exposure conditions and the materials used, this phenomenon does not always behaves the same way, because of this, constant research in this area is needed for the technical means and the society. Laboratory, empirical and experimental research has been routine in many of the RAA studies still given the lack of certain more precise definitions concerning the testing methods, but also because of the need for better understanding of the use of materials in concrete as aggregate, cement, additions, additives etc. and structure behavior. Prevention techniques could significantly reduce the incidence of RAA. Still, many structures were built before such measures were known, several cases of affected structures were discovered in Brazil, all with large spending on repairs of the affected structures. In recent studies on the particle size of the alkaliaggregate and its distribution was concluded that the aggregate size is related to the damaging potential of the RAA. There are also indications that the size and distribution of concrete pores are also capable of influencing the reactive potential of the concrete. In the present work we developed an Artificial Vision System ( VAS ) that uses image processing techniques to identify aggregate and pores in hardened concrete images, enabling the calculation of porosity and producing segmented images that can be used to investigate data about the geometry of these elements. Were made two approaches for obtaining the images, one by Scanner Commercial, which has related advantages will ease the acquisition of equipment, and other micro CT scanner. Once obtained information on the concrete samples, these can be used to search the AAR compared risk structures with old structures so as to enhance the occurrence of risk prediction, as well as be applied to other concrete in the study of other pathologies less common in our country, as ice effect / thaw.
282

Dois problemas em análise de formas de estruturas de ramificação / Two Problems in Shape Analysis of Branching Structures

Jorge de Jesus Gomes Leandro 17 July 2008 (has links)
O presente texto descreve métodos e apresenta resultados do projeto de pesquisa de mestrado intitulado \"Dois Problemas em Análise de Formas de Estruturas de Ramificação\". Ambos os problemas abordados estão relacionados às sub-áreas da Análise de Formas denominadas Caracterização e Descrição de Formas. O primeiro problema consiste na investigação de um conjunto de características propostas para distingüir, primeiramente, entre estruturas de ramificação de vasos sangüíneos em imagens de retina segmentadas manualmente e automaticamente. A seguir, as mesmas características são aplicadas para discernir entre estruturas de ramificação de vasos sangüíneos em imagens de retina com e sem retinopatia diabética proliferativa (Proliferative Diabetic Retinopathy - PDR). A PDR é uma das patologias associadas à diabetes, que pode culminar na cegueira do indivíduo. Diagnósticos são possíveis por meio de imagens de fundo de olho e, quando efetuados precocemente, viabilizam intervenções oportunas evitando a perda da visão. Neste trabalho, 27 imagens digitais de fundo de olho foram segmentadas por dois processos distintos, isto é, segmentação manual por um especialista e a segmentação automática, mediante a transformada contínua Wavelet - CWT e classificadores estatísticos. Visando à caracterização destas formas, um conjunto de 08 características foi proposto. Este conjunto foi formado por três grupos, a saber: descritores tradicionais geométricos (Área, Perímetro e Circularidade), descritores associados à transformada wavelet ( 2o momento estatístico da distribuição de módulos da CWT, Entropia de Orientação da distribuição de fases da CWT e Curvatura) e um descritor fractal (Dimensão de Correlação - Global e Mediana). Uma Análise Discriminante Linear LDA revelou que as características geométricas tradicionais não detectam o início da retinopatia diabética proliferativa. A maior capacidade discriminante individual foi exibida pela Curvatura, com Área sob a curva ROC de 0.76. Um subconjunto com 6 características apresentou grande capacidade discriminante com Área sob a curva ROC de 0.90. O segundo problema diz respeito à extração de contorno de estruturas de ramificação bidimensionais de neurônios tridimensionais. Este trabalho contribui originalmente com uma solução para este problema, propondo dois algoritmos desenvolvidos para Rastreamento de Ramos e Extração do Contorno Paramétrico de estruturas de ramificação, capazes de transpor regiões críticas formadas por cruzamentos ocasionados pela projeção de estruturas 3D no plano das imagens 2D. Grande parte dos métodos baseados em contorno para análise de formas de estruturas de ramificação de células neuronais não produz representações corretas destas formas, devido à presença de sobreposições entre processos neuronais, levando os algoritmos tradicionais de extração de contorno a ignorar as regiões mais internas destas estruturas, gerando representações incompletas. O sistema proposto neste trabalho foi desenvolvido objetivando a solução do problema de extração de contorno, mesmo na presença de múltiplas sobreposições. Inicialmente, a imagem de entrada é pré-processada, gerando um esqueleto 8-conexo com ramos de um pixel de largura, um conjunto de sementes de sub-árvores dendríticas e um conjunto de regiões críticas (bifurcações e cruzamentos). Para cada sub-árvore, o algoritmo de rastreamento rotula todos os pixels válidos de um ramo, até chegar em uma região crítica, onde o algoritmo decide a direção em que deve continuar o rastreamento. Nosso algoritmo mostrou-se robusto, mesmo quando aplicado a imagens com segmentos paralelos muito próximos. Resultados obtidos com imagens reais (neurônios) são apresentados. / This document describes methods and presents results from the Master of Science\'s research project in computer science entitled \"Two Problems in Shape Analysis of Branching Structures\". Both tackled problems herein are related to Shape Analysis sub-fields, namely Characterization and Description of shapes. The former problem consists of an investigation on a proposed set of features aimed at discriminating, firstly, between blood vessels branching structures manually and automatically segmented. In the sequel, the same features are used to assess their discriminative capability in distinguishing between blood vessels branching structures with and withoud proliferative diabetic retinopathy (PDR). The PDR is a pathology related to diabetes, which may lead to the blindness. Diagnosis is possible through optic fundus image analysis, which may allow timely interventions preventing vision loss. In this work, 27 digital optic fundus images were segmented by two distinct segmentation processes, i.e. manual segmentation carried out by an especialist and automated segmentation, through the CWT (Continuous Wavelet Transform) and statistical classifiers. In order to characterize such a shapes, a set of 8 features has been proposed. The aforementioned set was comprised of three features groups, that is: traditional geometric descriptors (Area, Perimeter and Circularity), wavelet-based descriptors (2nd statistical moment from the CWT Modulus distribution, Orientation Entropy from the CWT Phase distribution and Curvature) and a fractal descriptor (Correlation Dimension - global and median). Linear Discriminant Analysis LDA revelead that the traditional geometric features are not able to detect early proliferative diabetic retinopathy. The largest singular discriminant capability was shown by the Curvature, with area under the ROC curve of 0.76. A subset of 6 features presented a good discriminating power with area under the curve of 0.90. The second problem concerns contour extraction from 2D branching structures of 3D neurons. This work contributes with an original solution for such a problem, proposing two algorithms devised for Branches Tracking and Branching Structures Contour Extraction. The proposed algorithms are able to traverse critical regions implied by the projection of 3D structures onto a 2D image plane. Most of contour-based methods intended to shape analysis of neuronal branching structures fall short of yielding proper shape representations, owing to the presence of overlapings among neuronal processes, causing the traditional algorithms for contour following to ignore the innermost regions, thus generating incomplete representations. The proposed framework system was developed aiming at the solution of the contour extraction problem, even in the presence of multiple overlapings. The input image is pre-processed, so as to obtain an 8-connected skeleton with one-pixel wide branches, a set of seeds of dendritic sub-trees and a set of critical regions (bifurcations, crossings and superpositions). For each sub-tree, the Branches Tracking Algorithm labels all valid pixels of a branch, until reaching a critical region, where the algorithm decides about the direction to go on with the tracking. Our algorithm has shown robustness, even in images plenty of very close parallel segments. Results with real images (neurons) are presented.
283

Reconstrução em 3D de imagens DICOM cranio-facial com determinação de volumetria de muco nos seios paranasais

Lima, Rodrigo Freitas 05 August 2015 (has links)
Made available in DSpace on 2016-03-15T19:37:58Z (GMT). No. of bitstreams: 1 RODRIGO FREITAS LIMA.pdf: 13768169 bytes, checksum: 153d5257eed9a0961aaeaac94e224f89 (MD5) Previous issue date: 2015-08-05 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Paranasal sinus are important objects of study to rhinosinusitis diagnostic, having some papers related incidence between asthma and allergic rhinitis.Many applications can calculate to various parts of the human body, getting a CT scan or MRI input, and returning information about the region of interest observed as volume and area. The accumulated mucus in the sinuses is one of the areas of interest that have not yet been implemented methods for the calculation of volume and area. In the present scenario, the patient monitoring is done visually, depending largely on perception of the evaluator. Therefore, we seek to implement more accurate metrics to facilitate medical care to the patient and it can help prevent the worsening of rhinitis in a given patient, developing mechanisms of visual and numerical comparison, where it is possible observe the progress of treatment. This work contains a detailed study of how certain existing techniques, combined into one methodology can segment and calculate the accumulated mucus in the maxillary sinus. In addition to techniques such as Thresholding, Gaussian filter, Mathematical Morphology, Metallic Artifacts Reduction during processing and segmentation, MUNC and DTA to calculate the volume and area, and visualization techniques as the Marching Cubes, it was also necessary some adjustments in the algorithm for limit the region of interest where the thresholding combined with the gaussian filter has not been effective of retaining edges. The application will use two open source platforms, one for processing, ITK, and another for visualization, VTK. The results demonstrated that it is possible to perform segmentation and the calculation with the use of platforms as well as the methodology used is adequate to solve this problem. / Os seios paranasais são importantes objetos de estudo para o diagnóstico de rinossinusites, tendo alguns estudos relacionado a incidência de asma na fase adulta a quadros de rinite alérgica na infância. Muitas aplicações atendem a diversas partes do corpo humano, obtendo de entrada uma tomografia computadorizada ou ressonância magnética, e devolvendo, muitas vezes, números que dizem respeito ao objeto de interesse observado, como volume e área. O muco acumulado nos seios paranasais é uma das regiões de interesse que ainda não tiveram métodos implementados para o cálculo do volume e área. No cenário atual, o acompanhamento do paciente é feito de forma visual, dependendo muito da percepção do avaliador. Portanto, busca-se a implementação de métricas mais precisas para facilitar o acompanhamento médico ao paciente e ajudar na prevenção do agravamento de um quadro de rinite em um determinado paciente, criando mecanismos de comparação visual e numérica, onde é possível observar a evolução do tratamento. Este trabalho contém um estudo detalhado de como determinadas técnicas existentes, combinadas em uma metodologia, podem segmentar e calcular o muco acumulado nos seios paranasais maxilares. Além de técnicas como a Binarizacão, Filtro Gaussiano, Morfologia Matemática, Redução de Ruídos Metálico durante o processamento e segmentação, MUNC e DTA para o cálculo do volume e área, e técnicas de visualização como o Marching Cubes, foram necessários também ajustes no algoritmo para limitar a área segmentada onde a binarizacão combinada ao filtro não foi capaz de manter as bordas da região de interesse. A aplicação fará uso de duas plataformas de código livre, sendo uma para o processamento, ITK, e outra para visualização de imagens, VTK. Os resultados demonstraram que é possível realizar a segmentação e o cálculo com o uso das plataformas, bem como a metodologia empregada é adequada a resolução deste problema.
284

RAMBLE: robust acoustic modeling for Brazilian learners of English / RAMBLE: modelagem acústica robusta para estudantes brasileiros de Inglês

Christopher Dane Shulby 08 August 2018 (has links)
The gains made by current deep-learning techniques have often come with the price tag of big data and where that data is not available, a new solution must be found. Such is the case for accented and noisy speech where large databases do not exist and data augmentation techniques, which are less than perfect, present an even larger obstacle. Another problem is that state-of-the-art results are rarely reproducible because they use proprietary datasets, pretrained networks and/or weight initializations from other larger networks. An example of a low resource scenario exists even in the fifth largest land in the world; home to most of the speakers of the seventh most spoken language on earth. Brazil is the leader in the Latin-American economy and as a BRIC country aspires to become an ever-stronger player in the global marketplace. Still, English proficiency is low, even for professionals in businesses and universities. Low intelligibility and strong accents can damage professional credibility. It has been established in the literature for foreign language teaching that it is important that adult learners are made aware of their errors as outlined by the Noticing Theory, explaining that a learner is more successful when he is able to learn from his own mistakes. An essential objective of this dissertation is to classify phonemes in the acoustic model which is needed to properly identify phonemic errors automatically. A common belief in the community is that deep learning requires large datasets to be effective. This happens because brute force methods create a highly complex hypothesis space which requires large and complex networks which in turn demand a great amount of data samples in order to generate useful networks. Besides that, the loss functions used in neural learning does not provide statistical learning guarantees and only guarantees the network can memorize the training space well. In the case of accented or noisy speech where a new sample can carry a great deal of variation from the training samples, the generalization of such models suffers. The main objective of this dissertation is to investigate how more robust acoustic generalizations can be made, even with little data and noisy accented-speech data. The approach here is to take advantage of raw feature extraction provided by deep learning techniques and instead focus on how learning guarantees can be provided for small datasets to produce robust results for acoustic modeling without the dependency of big data. This has been done by careful and intelligent parameter and architecture selection within the framework of the statistical learning theory. Here, an intelligently defined CNN architecture, together with context windows and a knowledge-driven hierarchical tree of SVM classifiers achieves nearly state-of-the-art frame-wise phoneme recognition results with absolutely no pretraining or external weight initialization. A goal of this thesis is to produce transparent and reproducible architectures with high frame-level accuracy, comparable to the state of the art. Additionally, a convergence analysis based on the learning guarantees of the statistical learning theory is performed in order to evidence the generalization capacity of the model. The model achieves 39.7% error in framewise classification and a 43.5% phone error rate using deep feature extraction and SVM classification even with little data (less than 7 hours). These results are comparable to studies which use well over ten times that amount of data. Beyond the intrinsic evaluation, the model also achieves an accuracy of 88% in the identification of epenthesis, the error which is most difficult for Brazilian speakers of English This is a 69% relative percentage gain over the previous values in the literature. The results are significant because it shows how deep feature extraction can be applied to little data scenarios, contrary to popular belief. The extrinsic, task-based results also show how this approach could be useful in tasks like automatic error diagnosis. Another contribution is the publication of a number of freely available resources which previously did not exist, meant to aid future researches in dataset creation. / Os ganhos obtidos pelas atuais técnicas de aprendizado profundo frequentemente vêm com o preço do big data e nas pesquisas em que esses grandes volumes de dados não estão disponíveis, uma nova solução deve ser encontrada. Esse é o caso do discurso marcado e com forte pronúncia, para o qual não existem grandes bases de dados; o uso de técnicas de aumento de dados (data augmentation), que não são perfeitas, apresentam um obstáculo ainda maior. Outro problema encontrado é que os resultados do estado da arte raramente são reprodutíveis porque os métodos usam conjuntos de dados proprietários, redes prétreinadas e/ou inicializações de peso de outras redes maiores. Um exemplo de um cenário de poucos recursos existe mesmo no quinto maior país do mundo em território; lar da maioria dos falantes da sétima língua mais falada do planeta. O Brasil é o líder na economia latino-americana e, como um país do BRIC, deseja se tornar um participante cada vez mais forte no mercado global. Ainda assim, a proficiência em inglês é baixa, mesmo para profissionais em empresas e universidades. Baixa inteligibilidade e forte pronúncia podem prejudicar a credibilidade profissional. É aceito na literatura para ensino de línguas estrangeiras que é importante que os alunos adultos sejam informados de seus erros, conforme descrito pela Noticing Theory, que explica que um aluno é mais bem sucedido quando ele é capaz de aprender com seus próprios erros. Um objetivo essencial desta tese é classificar os fonemas do modelo acústico, que é necessário para identificar automaticamente e adequadamente os erros de fonemas. Uma crença comum na comunidade é que o aprendizado profundo requer grandes conjuntos de dados para ser efetivo. Isso acontece porque os métodos de força bruta criam um espaço de hipóteses altamente complexo que requer redes grandes e complexas que, por sua vez, exigem uma grande quantidade de amostras de dados para gerar boas redes. Além disso, as funções de perda usadas no aprendizado neural não fornecem garantias estatísticas de aprendizado e apenas garantem que a rede possa memorizar bem o espaço de treinamento. No caso de fala marcada ou com forte pronúncia, em que uma nova amostra pode ter uma grande variação comparada com as amostras de treinamento, a generalização em tais modelos é prejudicada. O principal objetivo desta tese é investigar como generalizações acústicas mais robustas podem ser obtidas, mesmo com poucos dados e/ou dados ruidosos de fala marcada ou com forte pronúncia. A abordagem utilizada nesta tese visa tirar vantagem da raw feature extraction fornecida por técnicas de aprendizado profundo e obter garantias de aprendizado para conjuntos de dados pequenos para produzir resultados robustos para a modelagem acústica, sem a necessidade de big data. Isso foi feito por meio de seleção cuidadosa e inteligente de parâmetros e arquitetura no âmbito da Teoria do Aprendizado Estatístico. Nesta tese, uma arquitetura baseada em Redes Neurais Convolucionais (RNC) definida de forma inteligente, junto com janelas de contexto e uma árvore hierárquica orientada por conhecimento de classificadores que usam Máquinas de Vetores Suporte (Support Vector Machines - SVMs) obtém resultados de reconhecimento de fonemas baseados em frames quase no estado da arte sem absolutamente nenhum pré-treinamento ou inicialização de pesos de redes externas. Um objetivo desta tese é produzir arquiteturas transparentes e reprodutíveis com alta precisão em nível de frames, comparável ao estado da arte. Adicionalmente, uma análise de convergência baseada nas garantias de aprendizado da teoria de aprendizagem estatística é realizada para evidenciar a capacidade de generalização do modelo. O modelo possui um erro de 39,7% na classificação baseada em frames e uma taxa de erro de fonemas de 43,5% usando raw feature extraction e classificação com SVMs mesmo com poucos dados (menos de 7 horas). Esses resultados são comparáveis aos estudos que usam bem mais de dez vezes essa quantidade de dados. Além da avaliação intrínseca, o modelo também alcança uma precisão de 88% na identificação de epêntese, o erro que é mais difícil para brasileiros falantes de inglês. Este é um ganho relativo de 69% em relação aos valores anteriores da literatura. Os resultados são significativos porque mostram como raw feature extraction pode ser aplicada a cenários de poucos dados, ao contrário da crença popular. Os resultados extrínsecos também mostram como essa abordagem pode ser útil em tarefas como o diagnóstico automático de erros. Outra contribuição é a publicação de uma série de recursos livremente disponíveis que anteriormente não existiam, destinados a auxiliar futuras pesquisas na criação de conjuntos de dados.
285

Desenvolvimento de metodologias para o reconhecimento de estruturas quiescentes em mapas solares observados pelo Telescópio Solar para Ondas Submilimétricas (SST)

Pereira, André Luiz Garcia 20 August 2018 (has links)
Submitted by Marta Toyoda (1144061@mackenzie.br) on 2018-10-09T18:48:03Z No. of bitstreams: 2 Andre Luiz Garcia Pereira.pdf: 3744578 bytes, checksum: a771cb04ee2c242cc6b35d79cfdc34ff (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Approved for entry into archive by Paola Damato (repositorio@mackenzie.br) on 2018-10-17T18:19:38Z (GMT) No. of bitstreams: 2 Andre Luiz Garcia Pereira.pdf: 3744578 bytes, checksum: a771cb04ee2c242cc6b35d79cfdc34ff (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Made available in DSpace on 2018-10-17T18:19:38Z (GMT). No. of bitstreams: 2 Andre Luiz Garcia Pereira.pdf: 3744578 bytes, checksum: a771cb04ee2c242cc6b35d79cfdc34ff (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Previous issue date: 2018-08-20 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / The Submillimeter Solar Telescope (SST) operates simultaneously and independently with a multibeam focal array at 212 and 405 GHz. Since 1999, the SST daily monitors in different modes of observation the solar activity generating binary files from which solar maps can be extracted. The identification of Active Regions in these maps is affected by the strong atmospheric attenuation and inaccuracies of the telescope's pointing, therefore, maps are visually inspected to manually extract the Active Regions. This is a lengthy process for performing a statistical analysis over the 20-year data set already recorded. To automatize the process artificial intelligence techniques of machine learning and computer vision were proposed. A Convolutional Neural Network was created within the Keras framework for the classification of the SST maps and then, a computer vision algorithm in the OpenCV framework was used for the automatic detection of ARs. This hybrid approach allowed the identification of more than 400 active regions between January 2002 and December 2017 and their physical properties were statistically analysed. The results were validated comparing with previous works which were carried out with a visual identification and manual extraction procedure, and a good agreement was found. Moreover, we present for the first time, evidence of a positive correlation between the brightness temperature at 212 GHz and the flux density at 2.8 GHz (the S component) along the solar cycle. / O Telescópio Solar Submilimétrico (SST) opera simultaneamente e de forma independente, com uma matriz focal multifeixe em 212 e 405 GHz. Desde 1999, o SST monitora diariamente em diferentes modos de observação a atividade solar gerando arquivos binários dos quais mapas solares podem ser extraídos. A identificação de Regiões Ativas nesses mapas é afetada pela forte atenuação atmosférica e imprecisões dos apontamentos do telescópio, portanto, os mapas são visualmente inspecionados para extração manual as Regiões Ativas. Este é um processo demorado para a realização de uma análise estatística ao longo do conjunto de dados de 20 anos já registrado. Para automatizar o processo, foram propostas técnicas de inteligência artificial de aprendizado de máquina e de visão computacional. Uma Rede Neural Convolucional foi criada dentro do framework Keras para a classificação dos mapas SST e, em seguida, um algoritmo de visão computacional no framework OpenCV para a detecção automática das Regiões Ativas. Esta abordagem híbrida permitiu a identificação de mais de 400 Regiões Ativas entre janeiro de 2002 e dezembro de 2017 e a análise estatística de suas propriedades físicas. Os resultados foram validados a partir da comparação com trabalhos anteriores, que foram realizados com um procedimento de identificação visual e extração manual, e foi encontrada boa concordância. Além destes resultados, mostramos pela primeira vez evidências de uma correlação positiva entre a temperatura de brilho em 212 GHz e o fluxo em 2.8 GHz (componente S).

Page generated in 0.0719 seconds