• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 55
  • 5
  • 1
  • Tagged with
  • 63
  • 26
  • 26
  • 23
  • 21
  • 16
  • 16
  • 16
  • 12
  • 10
  • 9
  • 8
  • 8
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Using supervised machine learning and sentiment analysis techniques to predict homophobia in portuguese tweets

Pereira, Vinicius Gomes 16 April 2018 (has links)
Submitted by Vinicius Pereira (viniciusgomespe@gmail.com) on 2018-06-26T20:56:26Z No. of bitstreams: 1 DissertacaoFinal.pdf: 2029614 bytes, checksum: 3eda3dc97f25c0eecd86608653150d82 (MD5) / Approved for entry into archive by Janete de Oliveira Feitosa (janete.feitosa@fgv.br) on 2018-07-11T12:40:51Z (GMT) No. of bitstreams: 1 DissertacaoFinal.pdf: 2029614 bytes, checksum: 3eda3dc97f25c0eecd86608653150d82 (MD5) / Made available in DSpace on 2018-07-16T17:48:51Z (GMT). No. of bitstreams: 1 DissertacaoFinal.pdf: 2029614 bytes, checksum: 3eda3dc97f25c0eecd86608653150d82 (MD5) Previous issue date: 2018-04-16 / Este trabalho estuda a identificação de tweets homofóbicos, utilizando uma abordagem de processamento de linguagem natural e aprendizado de máquina. O objetivo é construir um modelo preditivo que possa detectar, com razoável precisão, se um Tweet contém conteúdo ofensivo a indivı́duos LGBT ou não. O banco de dados utilizado para treinar os modelos preditivos foi construı́do agregando tweets de usuários que interagiram com polı́ticos e/ou partidos polı́ticos no Brasil. Tweets contendo termos relacionados a LGBTs ou que têm referências a indivı́duos LGBT foram coletados e classificados manualmente. Uma grande parte deste trabalho está na construção de features que capturam com precisão não apenas o texto do tweet, mas também caracterı́sticas especı́ficas dos usuários e de expressões coloquiais do português. Em particular, os usos de palavrões e vocabulários especı́ficos são um forte indicador de tweets ofensivos. Naturalmente, n-gramas e esquemas de frequência de termos também foram considerados como caracterı́sticas do modelo. Um total de 12 conjuntos de recursos foram construı́dos. Uma ampla gama de técnicas de aprendizado de máquina foi empregada na tarefa de classificação: Naive Bayes, regressões logı́sticas regularizadas, redes neurais feedforward, XGBoost (extreme gradient boosting), random forest e support vector machines. Depois de estimar e ajustar cada modelo, eles foram combinados usando voting e stacking. Voting utilizando 10 modelos obteve o melhor resultado, com 89,42% de acurácia. / This work studies the identification of homophobic tweets from a natural language processing and machine learning approach. The goal is to construct a predictive model that can detect, with reasonable accuracy, whether a Tweet contains offensive content to LGBT or not. The database used to train the predictive models was constructed aggregating tweets from users that have interacted with politicians and/or political parties in Brazil. Tweets containing LGBT-related terms or that have references to open LGBT individuals were collected and manually classified. A large part of this work is in constructing features that accurately capture not only the text of the tweet but also specific characteristics of the users and language choices. In particular, the uses of swear words and strong vocabulary is a quite strong predictor of offensive tweets. Naturally, n-grams and term weighting schemes were also considered as features of the model. A total of 12 sets of features were constructed. A broad range of machine learning techniques were employed in the classification task: naive Bayes, regularized logistic regressions, feedforward neural networks, extreme gradient boosting (XGBoost), random forest and support vector machines. After estimating and tuning each model, they were combined using voting and stacking. Voting using 10 models obtained the best result, with 89.42% accuracy.
52

Ferramenta computacional para apoio ao gerenciamento e à classificação de sementes de soja submetidas ao teste de tetrazólio / Computing tool to support management and classification of soy seeds submitted to tetrazolium test

Rocha, Davi Marcondes 07 December 2016 (has links)
Submitted by Neusa Fagundes (neusa.fagundes@unioeste.br) on 2017-09-25T14:47:50Z No. of bitstreams: 1 Davi_Rocha2017.pdf: 3573661 bytes, checksum: 8912d0785316cee5fdd46712b6f23d78 (MD5) / Made available in DSpace on 2017-09-25T14:47:50Z (GMT). No. of bitstreams: 1 Davi_Rocha2017.pdf: 3573661 bytes, checksum: 8912d0785316cee5fdd46712b6f23d78 (MD5) Previous issue date: 2016-12-07 / Fundação Araucária de Apoio ao Desenvolvimento Científico e Tecnológico do Estado do Paraná (FA) / Production and use of high quality seeds are important factors for the soybean farming. Therefore the quality control system in the seed industry must be reliable, accurate and fast. Seed technology research has been striving to develop or improve tests to enable seed quality evaluation. Tetrazolium test, besides evaluating the viability and vigor of the seeds, provides information about the potencial causing agents of quality reduction. Even though not using expensive instruments and reagents, the test requires a well-trained seed analyst, and the test’s accuracy depends on their knowledge about the all involved techniques and procedures, including the subjectivity of the observer. Therefore, the objective of the present research was to develop a computational tool that could minimize the implicit subjectivity in the test, contributing to increase information credibility and ensure the accuracy results. This tool allows, by tetrazolium test images, to identify seeds damage, as well as their location and extension, making the interpretation less subjective. From the feature extraction data in digital images of tetrazolium test, supervised classification algorithms were applied to do segmentation in the images, generating a classified image. The proposed system was tested using a selection of samples to training the classifier model and, from this model, the images classification of the tetrazolium test, to extract information about the seeds damage. The system allowed, in addition to an easier way for damages identification in the tetrazolium test images, the extraction of accurate information on displayed damage and achieve the control of the analyzed samples. The classifier performed the assignment of the predetermined categories efficiently for non-present data training set, with 96.6% of correctly classified instances and Kappa index of 0.95%, making the system a supplementary tool in decision making for the tetrazolium test. / A produção e a utilização de sementes de alta qualidade são fatores de importância para o cultivo da soja. Para isso, o sistema de controle de qualidade na indústria de sementes deve ser confiável, preciso e rápido. A pesquisa em tecnologia de sementes tem se esforçado em desenvolver ou aprimorar testes que possibilitem a avaliação da qualidade das sementes. O teste de tetrazólio, além de avaliar a viabilidade e o vigor de sementes, fornece informações sobre possíveis agentes causadores da redução de sua qualidade. Embora não se utilize de instrumentos e reagentes caros, o teste requer um analista de sementes bem treinado, sendo que a precisão do mesmo depende do conhecimento de todas as técnicas e procedimentos envolvidos, devendo-se considerar a subjetividade do observador. Sendo assim, o objetivo desta pesquisa foi desenvolver uma ferramenta computacional que minimizasse a subjetividade implícita na realização do teste, contribuindo para gerar maior credibilidade nas informações e garantindo precisão nos resultados. Esta ferramenta permite, a partir de imagens do teste de tetrazólio, realizar a identificação dos danos presentes nas sementes, bem como sua localização e sua extensão nos tecidos, tornando a interpretação menos subjetiva. A partir da extração de dados de características das imagens digitais do teste de tetrazólio, foram aplicados algoritmos de classificação supervisionada para realizar a segmentação destas imagens, produzindo uma imagem classificada. O sistema proposto foi testado utilizando a seleção de amostras para treino do modelo classificador e, a partir deste modelo, a classificação das imagens do teste de tetrazólio, para extração de informações sobre os danos verificados nas sementes. O sistema permitiu, além da identificação dos danos nas imagens do teste de tetrazólio de forma facilitada, a extração de informações mais seguras sobre os danos presentes e realizar o controle das amostras analisadas. O classificador realizou a atribuição das classes predeterminadas de forma eficiente para dados não presentes no conjunto de treinamento, com 96,6% de instâncias classificadas corretamente e Índice Kappa de 0,95%, tornando o sistema uma ferramenta suplementar na tomada de decisão para o teste de tetrazólio.
53

Estudo, avaliação e comparação de técnicas de detecção não supervisionada de outliers / Study, evaluation and comparison of unsupervised outlier detection techniques

Guilherme Oliveira Campos 05 March 2015 (has links)
A área de detecção de outliers (ou detecção de anomalias) possui um papel fundamental na descoberta de padrões em dados que podem ser considerados excepcionais sob alguma perspectiva. Detectar tais padrões é relevante de maneira geral porque, em muitas aplicações de mineração de dados, tais padrões representam comportamentos extraordinários que merecem uma atenção especial. Uma importante distinção se dá entre as técnicas supervisionadas e não supervisionadas de detecção. O presente projeto enfoca as técnicas de detecção não supervisionadas. Existem dezenas de algoritmos desta categoria na literatura e novos algoritmos são propostos de tempos em tempos, porém cada um deles utiliza uma abordagem própria do que deve ser considerado um outlier ou não, que é um conceito subjetivo no contexto não supervisionado. Isso dificulta sensivelmente a escolha de um algoritmo em particular em uma dada aplicação prática. Embora seja de conhecimento comum que nenhum algoritmo de aprendizado de máquina pode ser superior a todos os demais em todos os cenários de aplicação, é uma questão relevante se o desempenho de certos algoritmos em geral tende a dominar o de determinados outros, ao menos em classes particulares de problemas. Neste projeto, propõe-se contribuir com o estudo, seleção e pré-processamento de bases de dados que sejam apropriadas para se juntarem a uma coleção de benchmarks para avaliação de algoritmos de detecção não supervisionada de outliers. Propõe-se ainda avaliar comparativamente o desempenho de métodos de detecção de outliers. Durante parte do meu trabalho de mestrado, tive a colaboração intelectual de Erich Schubert, Ira Assent, Barbora Micenková, Michael Houle e, principalmente, Joerg Sander e Arthur Zimek. A contribuição deles foi essencial para as análises dos resultados e a forma compacta de apresentá-los. / The outlier detection area has an essential role in discovering patterns in data that can be considered as exceptional in some perspective. Detect such patterns is important in general because, in many data mining applications, such patterns represent extraordinary behaviors that deserve special attention. An important distinction occurs between supervised and unsupervised detection techniques. This project focuses on the unsupervised detection techniques. There are dozens of algorithms in this category in literature and new algorithms are proposed from time to time, but each of them uses its own approach of what should be considered an outlier or not, which is a subjective concept in the unsupervised context. This considerably complicates the choice of a particular algorithm in a given practical application. While it is common knowledge that no machine learning algorithm can be superior to all others in all application scenarios, it is a relevant question if the performance of certain algorithms in general tends to dominate certain other, at least in particular classes of problems. In this project, proposes to contribute to the databases study, selection and pre-processing that are appropriate to join a benchmark collection for evaluating unsupervised outlier detection algorithms. It is also proposed to evaluate comparatively the performance of outlier detection methods. During part of my master thesis, I had the intellectual collaboration of Erich Schubert, Ira Assent, Barbora Micenková, Michael Houle and especially Joerg Sander and Arthur Zimek. Their contribution was essential for the analysis of the results and the compact way to present them.
54

IFT-SLIC: geração de superpixels com base em agrupamento iterativo linear simples e transformada imagem-floresta / IFT-SLIC: superpixel generation based on simple linear iterative clustering and image foresting transform

Eduardo Barreto Alexandre 29 June 2017 (has links)
A representação de imagem baseada em superpixels tem se tornado indispensável na melhoria da eficiência em sistemas de Visão Computacional. Reconhecimento de objetos, segmentação, estimativa de profundidade e estimativa de modelo corporal são alguns importantes problemas nos quais superpixels podem ser aplicados. Porém, superpixels podem influenciar a qualidade dos resultados do sistema positiva ou negativamente, dependendo de quão bem eles respeitam as fronteiras dos objetos na imagem. Neste trabalho, é proposto um método iterativo para geração de superpixels, conhecido por IFT-SLIC, baseado em sequências de Transformadas Imagem-Floresta, começando com uma grade regular de sementes. Um procedimento de recomputação de pixels sementes é aplicado a cada iteração, gerando superpixels conexos com melhor aderência às bordas dos objetos presentes na imagem. Os superpixels obtidos via IFT-SLIC correspondem, estruturalmente, a árvores de espalhamento enraizadas nessas sementes, que naturalmente definem superpixels como regiões de pixels fortemente conexas. Comparadas ao Agrupamento Iterativo Linear Simples (SLIC), o IFT-SLIC considera os custos dos caminhos mínimos entre pixels e os centros dos agrupamentos, em vez de suas distâncias diretas. Funções de conexidade não monotonicamente incrementais são exploradas em neste método resultando em melhor desempenho. Estudos experimentais indicam resultados de extração de superpixels superiores pelo método proposto em comparação com o SLIC. Também é analisada a efetividade do IFT-SLIC, em termos de medidas de eficiência e acurácia, em uma aplicação de segmentação do céu em fotos de paisagens. Os resultados mostram que o IFT-SLIC é competitivo com os melhores métodos do estado da arte e superior a muitos outros, motivando seu desenvolvimento para diferentes aplicações. / Image representation based on superpixels has become indispensable for improving efficiency in Computer Vision systems. Object recognition, segmentation, depth estimation, and body model estimation are some important problems where superpixels can be applied. However, superpixels can influence the quality of the system results in a positive or negative manner, depending on how well they respect the object boundaries in the image. In this work, we propose an iterative method for superpixels generation, known as IFT-SLIC, which is based on sequences of Image Foresting Transforms, starting with a regular grid for seed sampling. A seed pixel recomputation procedure is applied per each iteration, generating connected superpixels with a better adherence to objects borders present in the image. The superpixels obtained by IFT-SLIC structurally correspond to spanning trees rooted at those seeds, that naturally define superpixels as regions of strongly connected pixels. Compared to Simple Linear Iterative Clustering (SLIC), IFT-SLIC considers minimum path costs between pixel and cluster centers rather than their direct distances. Non-monotonically increasing connectivity functions are explored in our IFT-SLIC approach leading to improved performance. Experimental results indicate better superpixel extraction by the proposed approach in comparation to that of SLIC. We also analyze the effectiveness of IFT-SLIC, according to efficiency, and accuracy on an application -- namely sky segmentation. The results show that IFT-SLIC can be competitive to the best state-of-the-art methods and superior to many others, which motivates it\'s further development for different applications.
55

Aplicação de métodos não supervisionados: estudo empírico com os dados de segurança pública do estado do Rio de Janeiro

Nascimento, Otto Tavares 20 December 2016 (has links)
Submitted by Otto Tavares Nascimento (otavares93@gmail.com) on 2017-05-12T09:14:03Z No. of bitstreams: 1 Dissertação_Otto_Tavares_Nascimento.pdf: 9875781 bytes, checksum: fe5bb21c41c1cb3b1dc79d84841fe938 (MD5) / Approved for entry into archive by Leiliane Silva (leiliane.silva@fgv.br) on 2017-05-12T20:37:41Z (GMT) No. of bitstreams: 1 Dissertação_Otto_Tavares_Nascimento.pdf: 9875781 bytes, checksum: fe5bb21c41c1cb3b1dc79d84841fe938 (MD5) / Made available in DSpace on 2017-05-30T14:11:36Z (GMT). No. of bitstreams: 1 Dissertação_Otto_Tavares_Nascimento.pdf: 9875781 bytes, checksum: fe5bb21c41c1cb3b1dc79d84841fe938 (MD5) Previous issue date: 2016-12-20 / Este trabalho é uma abordagem multidisciplinar, o qual aplica-se a metodologia de matemática aplicada, em específico, aprendizagem não supervisionada, a dados de segurança pública. Busca-se identificar a semelhança entre batalhões da polícia, utilizando métodos de clusterização de modo a otimizar numericamente o critério de avaliação de McClain. Além da otimização, aborda-se intuitivamente o modelo de clusterização hierárquica, para posteriormente extrair ordem no padrão criminal dos clusters e, finalmente, aplicar o modelo de classificação OLogit, utilizando variáveis características desses clusters. Encontramos evidência de clusterização dos dados e significância na utilização de dados socioeconômicos e de policiamento na ordenação dos clusters. Resumindo, quanto maior o efetivo policial por habitante e o IDH de renda mínima em determinado batalhão maior a probabilidade de se estar em um cluster de menor incidência criminal. / This multidisciplinary work use an applied math methodology, especially unsupervised learning, in public security data. We seek to find the similiarity beetwen policies battalions, using clustering methods, while otimizing numerically the McCLain index. Besides that, we extract learning from data, using OLogit models in cluster's order with feature variables. We find data clustering evidence and extract significance of socioeconomic and policing data in cluster's order. In summary, a higher police force per inhabitant and a higher minimum income HDI in a given batallion results in a greater probability of being in a cluster of lower criminal incidence.
56

Uma proposta metodológica de integração de técnicas de análise espectral e de inteligência computacional, baseadas em conhecimento, para o reconhecimento de padrões em imagens multiespectrais / A study of integration of spectral analysis and computational intelligence tecniques, knowledge-based, in automatic land cover pattem recognition from multispectral imaging sensors

Karla dos Santos Teixeira 18 December 2012 (has links)
Somente no ano de 2011 foram adquiridos mais de 1.000TB de novos registros digitais de imagem advindos de Sensoriamento Remoto orbital. Tal gama de registros, que possui uma progressão geométrica crescente, é adicionada, anualmente, a incrível e extraordinária massa de dados de imagens orbitais já existentes da superfície da Terra (adquiridos desde a década de 70 do século passado). Esta quantidade maciça de registros, onde a grande maioria sequer foi processada, requer ferramentas computacionais que permitam o reconhecimento automático de padrões de imagem desejados, de modo a permitir a extração dos objetos geográficos e de alvos de interesse, de forma mais rápida e concisa. A proposta de tal reconhecimento ser realizado automaticamente por meio da integração de técnicas de Análise Espectral e de Inteligência Computacional com base no Conhecimento adquirido por especialista em imagem foi implementada na forma de um integrador com base nas técnicas de Redes Neurais Computacionais (ou Artificiais) (através do Mapa de Características Auto- Organizáveis de Kohonen SOFM) e de Lógica Difusa ou Fuzzy (através de Mamdani). Estas foram aplicadas às assinaturas espectrais de cada padrão de interesse, formadas pelos níveis de quantização ou níveis de cinza do respectivo padrão em cada uma das bandas espectrais, de forma que a classificação dos padrões irá depender, de forma indissociável, da correlação das assinaturas espectrais nas seis bandas do sensor, tal qual o trabalho dos especialistas em imagens. Foram utilizadas as bandas 1 a 5 e 7 do satélite LANDSAT-5 para a determinação de cinco classes/alvos de interesse da cobertura e ocupação terrestre em três recortes da área-teste, situados no Estado do Rio de Janeiro (Guaratiba, Mangaratiba e Magé) nesta integração, com confrontação dos resultados obtidos com aqueles derivados da interpretação da especialista em imagens, a qual foi corroborada através de verificação da verdade terrestre. Houve também a comparação dos resultados obtidos no integrador com dois sistemas computacionais comerciais (IDRISI Taiga e ENVI 4.8), no que tange a qualidade da classificação (índice Kappa) e tempo de resposta. O integrador, com classificações híbridas (supervisionadas e não supervisionadas) em sua implementação, provou ser eficaz no reconhecimento automático (não supervisionado) de padrões multiespectrais e no aprendizado destes padrões, pois para cada uma das entradas dos recortes da área-teste, menor foi o aprendizado necessário para sua classificação alcançar um acerto médio final de 87%, frente às classificações da especialista em imagem. A sua eficácia também foi comprovada frente aos sistemas computacionais testados, com índice Kappa médio de 0,86. / Only in 2011 were acquired over 1.000TB of new digital image registers arising from orbital remote sensing. This range of data, which has a geometric progression increasing, is added annually to an extraordinary and incredible mass of data from existing satellite images of Earth's surface (acquired since the 70s of last century). This massive amount of raw data requires computational tools which allow the automatic recognition of image patterns desired to allow the extraction of geographical objects and targets of interest more quickly and concisely. The proposal for such recognition to be performed automatically through Spectral Analysis and Computational Intelligence integration, based on knowledge acquired by image experts, was implemented as an integrator based on Computational Neural Networks (via Kohonens Self-Organizing Feature Maps - SOM) and Fuzzy Logic (through Mamdani) techniques. These techniques were applied to the spectral signatures pattern formed by the quantization levels or gray levels of the corresponding pattern in each spectral band of each pattern of interest, so that the pattern classification will depend, in an inseparable manner, of the spectral signatures correlation of the six bands of the sensor, like the work of image experts. Bands 1 to 5 and 7 of the Landsat-5 satellite were used for the determination of five classes / targets of interest in cover and land occupation, in three test areas located in the State of Rio de Janeiro (Guaratiba, Mangaratiba and Magé) in this integration with comparison of results with those derived from the interpretation of the imaging expert, which was corroborated by checking the ground truth. There was also a results comparison obtained with two commercial computer systems (IDRISI Taiga and ENVI 4.8) with the integrator, regarding the quality of classification (Kappa) and response time. The integrator, with hybrid classifications (supervised and unsupervised) in its implementation, proved to be effective in multispectral automatic (unsupervised) pattern recognition and in learning of these patterns, because as the input of a new test area occurs, the lower became the process of learning, which achieve a final average accuracy o f 87%, compared to the experts classifications. Its efficacy was also demonstrated compared to systems tested, with average Kappa of 0.86.
57

ANÁLISE MULTITEMPORAL DO USO DA TERRA E COBERTURA FLORESTAL COM DADOS DOS SATÉLITES LANDSAT E ALOS / MULTITEMPORAL ANALYSIS OF LAND USE AND FOREST COVERAGE WITH DATA FROM LANDSAT AND ALOS SATELLITES

Torres, Daniela Ricalde 29 July 2011 (has links)
Conselho Nacional de Desenvolvimento Científico e Tecnológico / The monitoring of the use and coverage is very important when studying determined regions, just because it helps knowing the environmental reality and contributes to solve problems that can probably appear. This research was done from the images of ALOS and LANDSAT satellites. Its main objective was to have a multi-temporal analysis of Arroio Grande micro watershed, central region of Rio Grande do Sul. The specific purposes were to identify and to quantify the different classes of land use found in this micro watershed along the 1987, 1998, 2002, 2005, 2007 and 2009 periods, as well as cross the land use information to show the forest coverage changes during the 22 years of analysis. The software SPRING 5.1.7 was employed to classify the supervised images through Bhattacharya, a sorter algorithm, and the map spatial analysis was done through the Spatial Language of Algebraic Geoprocessing program with the same computational application. The classes of land use as forest, field, agriculture, irrigated agriculture, exposed soil and water layer were observed in the images of each year in this analysis. These classes were utilized in the spatial analysis of the forest coverage in which forest monitoring parameters have been defined (forest maintenance and regeneration, deforestation). In this research the principal results that have been noticed were the increase of 17,98% on the distributed forest coverage, mainly in the areas of bigger declination, and the reduction of 16,32% on the field area. The analysis of the spatial forest coverage has presented stability with the landscape, in a gradual progression, because the area of forest maintenance, found in these 22 years, was 12.252,60ha, the forest regeneration was 4.389,12ha and only 1.853,82ha of deforested area. / O monitoramento do uso e cobertura da terra faz-se importante no estudo de determinadas regiões, pois auxilia no conhecimento da realidade ambiental e contribui na busca por soluções de problemas que possam se apresentar. A partir do uso de imagens dos satélites, ALOS e LANDSAT, foi realizada esta pesquisa com o objetivo principal de fazer uma análise multitemporal na microbacia do Arroio Grande, região central do Rio Grande do Sul, cujos objetivos específicos foram: Identificar e quantificar as diferentes classes de uso da terra encontradas na microbacia nos períodos de 1987, 1998, 2002, 2005, 2007 e 2009; além de cruzar as informações de uso da terra, evidenciando a cobertura florestal que sofreu alterações no decorrer dos 22 anos de análise. Para tanto, foram utilizados o software SPRING 5.1.7 para a classificação supervisionada das imagens, com a adoção do algoritmo classificador Bhattacharya, e a análise espacial dos mapas com a programação LEGAL do mesmo aplicativo computacional. Para esta análise, foram observadas as classes de uso do solo: floresta, campo, agricultura, agricultura irrigada, solo exposto e lâmina d água, nas imagens de cada ano. Estas classes foram empregadas na análise espacial da cobertura florestal em que foram definidos parâmetros para o monitoramento florestal (manutenção florestal, regeneração florestal e desmatamentos). Os principais resultados notados, nesta pesquisa, foram o aumento de 17,98% na cobertura florestal distribuída, principalmente, nas áreas de maiores declividade, e a redução de 16,32% sobre a área de campo. Quanto à análise espacial da cobertura florestal, esta mostrou-se em estabilidade com a paisagem, e em gradual progressão, pois a área de manutenção florestal encontrada, nestes 22 anos, foi de 12.252,60 ha, a regeneração florestal foi de 4.389,12 ha e apenas 1.853,82 ha de área desmatada.
58

[en] ADAPTIVE RELAXED SYNCHRONIZATION THROUGH THE USE OF SUPERVISED LEARNING METHODS / [pt] RELAXAMENTO ADAPTATIVO DA SINCRONIZAÇÃO ATRAVÉS DO USO DE MÉTODOS DE APRENDIZAGEM SUPERVISIONADA

ANDRE LUIS CAVALCANTI BUENO 31 July 2018 (has links)
[pt] Sistemas de computação paralelos vêm se tornando pervasivos, sendo usados para interagir com o mundo físico e processar uma grande quantidade de dados de várias fontes. É essencial, portanto, a melhora contínua do desempenho computacional para acompanhar o ritmo crescente da quantidade de informações que precisam ser processadas. Algumas dessas aplicações admitem uma menor qualidade no resultado final em troca do aumento do desempenho de execução. Este trabalho tem por objetivo avaliar a viabilidade de usar métodos de aprendizagem supervisionada para garantir que a técnica de Sincronização Relaxada, utilizada para o aumento do desempenho de execução, forneça resultados dentro de limites aceitáveis de erro. Para isso, criamos uma metodologia que utiliza alguns dados de entrada para montar casos de testes que, ao serem executados, irão fornecer valores representativos de entrada para o treinamento de métodos de aprendizagem supervisionada. Dessa forma, quando o usuário utilizar a sua aplicação (no mesmo ambiente de treinamento) com uma nova entrada, o algoritmo de classificação treinado irá sugerir o fator de relaxamento de sincronização mais adequado à tripla aplicação/entrada/ambiente de execução. Utilizamos essa metodologia em algumas aplicações paralelas bem conhecidas e mostramos que, aliando a Sincronização Relaxada a métodos de aprendizagem supervisionada, foi possível manter a taxa de erro máximo acordada. Além disso, avaliamos o ganho de desempenho obtido com essa técnica para alguns cenários em cada aplicação. / [en] Parallel computing systems have become pervasive, being used to interact with the physical world and process a large amount of data from various sources. It is essential, therefore, the continuous improvement of computational performance to keep up with the increasing rate of the amount of information that needs to be processed. Some of these applications admit lower quality in the final result in exchange for increased execution performance. This work aims to evaluate the feasibility of using supervised learning methods to ensure that the Relaxed Synchronization technique, used to increase execution performance, provides results within acceptable limits of error. To do so, we have created a methodology that uses some input data to assemble test cases that, when executed, will provide input values for the training of supervised learning methods. This way, when the user uses his/her application (in the same training environment) with a new input, the trained classification algorithm will suggest the relax synchronization factor that is best suited to the triple application/input/execution environment. We used this methodology insome well-known parallel applications and showed that, by combining Relaxed Synchronization with supervised learning methods, it was possible to maintain the maximum established error rate. In addition, we evaluated the performance gain obtained with this technique for a number of scenarios in each application.
59

Uma proposta metodológica de integração de técnicas de análise espectral e de inteligência computacional, baseadas em conhecimento, para o reconhecimento de padrões em imagens multiespectrais / A study of integration of spectral analysis and computational intelligence tecniques, knowledge-based, in automatic land cover pattem recognition from multispectral imaging sensors

Karla dos Santos Teixeira 18 December 2012 (has links)
Somente no ano de 2011 foram adquiridos mais de 1.000TB de novos registros digitais de imagem advindos de Sensoriamento Remoto orbital. Tal gama de registros, que possui uma progressão geométrica crescente, é adicionada, anualmente, a incrível e extraordinária massa de dados de imagens orbitais já existentes da superfície da Terra (adquiridos desde a década de 70 do século passado). Esta quantidade maciça de registros, onde a grande maioria sequer foi processada, requer ferramentas computacionais que permitam o reconhecimento automático de padrões de imagem desejados, de modo a permitir a extração dos objetos geográficos e de alvos de interesse, de forma mais rápida e concisa. A proposta de tal reconhecimento ser realizado automaticamente por meio da integração de técnicas de Análise Espectral e de Inteligência Computacional com base no Conhecimento adquirido por especialista em imagem foi implementada na forma de um integrador com base nas técnicas de Redes Neurais Computacionais (ou Artificiais) (através do Mapa de Características Auto- Organizáveis de Kohonen SOFM) e de Lógica Difusa ou Fuzzy (através de Mamdani). Estas foram aplicadas às assinaturas espectrais de cada padrão de interesse, formadas pelos níveis de quantização ou níveis de cinza do respectivo padrão em cada uma das bandas espectrais, de forma que a classificação dos padrões irá depender, de forma indissociável, da correlação das assinaturas espectrais nas seis bandas do sensor, tal qual o trabalho dos especialistas em imagens. Foram utilizadas as bandas 1 a 5 e 7 do satélite LANDSAT-5 para a determinação de cinco classes/alvos de interesse da cobertura e ocupação terrestre em três recortes da área-teste, situados no Estado do Rio de Janeiro (Guaratiba, Mangaratiba e Magé) nesta integração, com confrontação dos resultados obtidos com aqueles derivados da interpretação da especialista em imagens, a qual foi corroborada através de verificação da verdade terrestre. Houve também a comparação dos resultados obtidos no integrador com dois sistemas computacionais comerciais (IDRISI Taiga e ENVI 4.8), no que tange a qualidade da classificação (índice Kappa) e tempo de resposta. O integrador, com classificações híbridas (supervisionadas e não supervisionadas) em sua implementação, provou ser eficaz no reconhecimento automático (não supervisionado) de padrões multiespectrais e no aprendizado destes padrões, pois para cada uma das entradas dos recortes da área-teste, menor foi o aprendizado necessário para sua classificação alcançar um acerto médio final de 87%, frente às classificações da especialista em imagem. A sua eficácia também foi comprovada frente aos sistemas computacionais testados, com índice Kappa médio de 0,86. / Only in 2011 were acquired over 1.000TB of new digital image registers arising from orbital remote sensing. This range of data, which has a geometric progression increasing, is added annually to an extraordinary and incredible mass of data from existing satellite images of Earth's surface (acquired since the 70s of last century). This massive amount of raw data requires computational tools which allow the automatic recognition of image patterns desired to allow the extraction of geographical objects and targets of interest more quickly and concisely. The proposal for such recognition to be performed automatically through Spectral Analysis and Computational Intelligence integration, based on knowledge acquired by image experts, was implemented as an integrator based on Computational Neural Networks (via Kohonens Self-Organizing Feature Maps - SOM) and Fuzzy Logic (through Mamdani) techniques. These techniques were applied to the spectral signatures pattern formed by the quantization levels or gray levels of the corresponding pattern in each spectral band of each pattern of interest, so that the pattern classification will depend, in an inseparable manner, of the spectral signatures correlation of the six bands of the sensor, like the work of image experts. Bands 1 to 5 and 7 of the Landsat-5 satellite were used for the determination of five classes / targets of interest in cover and land occupation, in three test areas located in the State of Rio de Janeiro (Guaratiba, Mangaratiba and Magé) in this integration with comparison of results with those derived from the interpretation of the imaging expert, which was corroborated by checking the ground truth. There was also a results comparison obtained with two commercial computer systems (IDRISI Taiga and ENVI 4.8) with the integrator, regarding the quality of classification (Kappa) and response time. The integrator, with hybrid classifications (supervised and unsupervised) in its implementation, proved to be effective in multispectral automatic (unsupervised) pattern recognition and in learning of these patterns, because as the input of a new test area occurs, the lower became the process of learning, which achieve a final average accuracy o f 87%, compared to the experts classifications. Its efficacy was also demonstrated compared to systems tested, with average Kappa of 0.86.
60

[pt] SEGMENTAÇÃO DE FALHAS SÍSMICAS USANDO ADAPTAÇÃO DE DOMÍNIO NÃO SUPERVISIONADA / [en] SEISMIC FAULT SEGMENTATION USING UNSUPERVISED DOMAIN ADAPTATION

MAYKOL JIAMPIERS CAMPOS TRINIDAD 28 November 2023 (has links)
[pt] A segmentação de falhas sísmicas apresenta uma tarefa desafiadora edemorada na geofísica, especialmente na exploração e extração de petróleo egás natural. Métodos de Aprendizado Profundo (Deep Learning) têm mostradoum grande potencial para enfrentar esses desafios e oferecem vantagens emcomparação com métodos tradicionais. No entanto, abordagens baseadas emAprendizado Profundo geralmente requerem uma quantidade substancial dedados rotulados, o que contradiz o cenário atual de disponibilidade limitadade dados sísmicos rotulados. Para lidar com essa limitação, pesquisadores têmexplorado a geração de dados sintéticos como uma solução potencial paradados reais não rotulados. Essa abordagem envolve treinar um modelo emdados sintéticos rotulados e, posteriormente, aplicar diretamente ao conjuntode dados real. No entanto, a geração de dados sintéticos encontra o problemade deslocamento de domínio devido à complexidade das situações geológicasdo mundo real, resultando em diferenças na distribuição entre conjuntosde dados sintéticos e reais. Para mitigar o problema de deslocamento dedomínio na detecção de falhas sísmicas, propomos uma nova abordagem queutiliza técnicas de Adaptação de Domínio Não Supervisionada ou UnsupervisedDomain Adaptation (UDA). Nossa proposta envolve o uso de um conjunto dedados sintéticos para treinamento do modelo e sua adaptação a dois conjuntosde dados reais disponíveis publicamente na literatura. As técnicas de UDAescolhidas incluem Maximum Mean Discrepancy (MMD), Domain-AdversarialNeural Networks (DANN) e Fourier Domain Adaptation (FDA). MMD eDANN visam alinhar características em um espaço de características comumde n dimensões, minimizando discrepâncias e aumentando a confusão dedomínio por meio do treinamento adversarial, respectivamente. Por outro lado,FDA transfere o estilo de amostras reais para sintéticas usando TransformadaRápida de Fourier. Para os experimentos, utilizamos uma versão menor doUNet e sua variante Atrous UNet, que incorpora camadas convolucionaisdilatadas em seu gargalo. Além disso, o DexiNed (Dense Extreme InceptionNetwork), um modelo do estado da arte para detecção de bordas, foi empregadopara fornecer uma análise mais abrangente. Além disso, estudamos a aplicaçãode ajuste fino ou fine-tuning em conjuntos de dados rotulados para investigarseu impacto no desempenho, pois muitos estudos o têm utilizado para reduziro deslocamento de domínio.Os resultados finais demonstraram melhorias significativas no desempenho de detecção de falhas ao aplicar técnicas de UDA, com aumento médio deaté 13 por cento em métricas de avaliação como Intersection over Union e F1-score.Além disso, a abordagem proposta obteve detecções mais consistentes de falhassísmicas com menos falsos positivos, indicando seu potencial para aplicações nomundo real. Por outro lado, a aplicação de ajuste fino não demonstrou ganhossignificativos no desempenho, mas reduziu o tempo de treinamento. / [en] Seismic fault segmentation presents a challenging and time-consuming task in geophysics, particularly in the exploration and extraction of oil and natural gas. Deep Learning (DL) methods have shown significant potential to address these challenges and offer advantages compared to traditional methods. However, DL-based approaches typically require a substantial amount of labeled data, which contradicts the current scenario of limited availability of labeled seismic data. To address this limitation, researchers have explored synthetic data generation as a potential solution for unlabeled real data. This approach involves training a model on labeled synthetic data and subsequently applying it directly to the real dataset. However, synthetic data generation encounters the domain shift problem due to the complexity of real-world geological situations, resulting in differences in distribution between synthetic and real datasets. To mitigate the domain shift issue in seismic fault detection, we propose a novel approach utilizing Unsupervised Domain Adaptation (UDA) techniques. Our proposal involves using a synthetic dataset for model training and adapting it to two publicly available real datasets found in the literature. The chosen UDA techniques include Maximum Mean Discrepancy (MMD), Domain-Adversarial Neural Networks (DANN), and Fourier Domain Adaptation (FDA). MMD and DANN aim to align features in a common n-dimensional feature space by minimizing discrepancy and increasing domain confusion through adversarial training, respectively. On the other hand, FDA transfers the style from real to synthetic samples using Fast Fourier Transform. For the experiments, we utilized a smaller version of UNet and its variant Atrous UNet, which incorporates Dilated Convolutional layers in its bottleneck. Furthermore, DexiNed (Dense Extreme Inception Network), a state-of-the-art model for edge detection, was employed to provide a more comprehensive analysis. Additionally, we studied the application of fine-tuning on labeled datasets to investigate its impact on performance, as many studies have employed it to reduce domain shift. The final results demonstrated significant improvements in fault detection performance by applying UDA techniques, with up to a 13 percent increase in evaluation metrics such as Intersection over Union and F1-score on average. Moreover, the proposed approach achieved more consistent detections of seismic faults with fewer false positives, indicating its potential for realworld applications. Conversely, the application of fine-tuning did not show a significant gain in performance but did reduce the training time.

Page generated in 0.0726 seconds