• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 15
  • 1
  • Tagged with
  • 16
  • 16
  • 11
  • 9
  • 7
  • 7
  • 6
  • 6
  • 6
  • 6
  • 6
  • 6
  • 4
  • 4
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Uma metodologia para a detecção de mudanças em imagens multitemporais de sensoriamento remoto empregando Support Vector Machines

Ferreira, Rute Henrique da Silva January 2014 (has links)
Esta tese investiga uma abordagem supervisionada para o problema da detecção de mudanças em imagens multitemporais de sensoriamento remoto empregando Support Vector Machines (SVM) com o uso dos kernels polinomial e gaussiano (RBF). A proposta metodológica está baseada na diferença das imagens-fração produzidas para cada data. Em imagens de cenas naturais a diferença nas frações de solo e vegetação tendem a apresentar uma distribuição simétrica em torno da origem. Esse fato pode ser usado para modelar duas distribuições normais multivariadas: mudança e não-mudança. O algoritmo Expectation-Maximization (EM) é implementado para estimar os parâmetros (vetor de médias, matriz de covariância e probabilidade a priori) associados a essas duas distribuições. Amostras aleatórias são extraídas dessas distribuições e usadas para treinar o classificador SVM nesta abordagem supervisionada. A metodologia proposta realiza testes com o uso de conjuntos de dados multitemporais de imagens multiespectrais TM-Landsat, que cobrem a mesma cena em duas datas diferentes. Os resultados são comparados com outros procedimentos, incluindo trabalhos anteriores, um conjunto de dados sintéticos e o classificador SVM One-Class. / In this thesis, we investigate a supervised approach to change detection in remote sensing multi-temporal image data by applying Support Vector Machines (SVM) technique using polynomial kernel and Gaussian kernel (RBF). The methodology is based on the difference-fraction images produced for two dates. In natural scenes, the difference in the fractions such as vegetation and bare soil occurring in two different dates tend to present a distribution symmetric around the origin of the coordinate system. This fact can be used to model two normal multivariate distributions: class change and no-change. The Expectation-Maximization algorithm (EM) is implemented to estimate the parameters (mean vector, covariance matrix and a priori probability) associated with these two distributions. Random samples are drawn from these distributions and used to train the SVM classifier in this supervised approach.The proposed methodology performs tests using multi-temporal TMLandsat multispectral image data covering the same scene in two different dates. The results are compared to other procedures including previous work, a synthetic data set and SVM One-Class.
12

Uma abordagem para a detecção de mudanças em imagens multitemporais de sensoriamento remoto empregando Support Vector Machines com uma nova métrica de pertinência

Angelo, Neide Pizzolato January 2014 (has links)
Esta tese investiga uma abordagem não supervisionada para o problema da detecção de mudanças em imagens multiespectrais e multitemporais de sensoriamento remoto empregando Support Vector Machines (SVM) com o uso dos kernels polinomial e RBF e de uma nova métrica de pertinência de pixels. A proposta metodológica está baseada na diferença das imagens-fração produzidas para cada data. Em imagens de cenas naturais essa diferença nas frações de solo e vegetação tendem a apresentar uma distribuição simétrica próxima à origem. Essa caracteristica pode ser usada para modelar as distribuições normais multivariadas das classes mudança e não-mudança. O algoritmo Expectation-Maximization (EM) é implementado com a finalidade de estimar os parâmetros (vetor de médias, matriz de covariância e probabilidade a priori) associados a essas duas distribuições. A seguir, amostras aleatórias e normalmente distribuidas são extraídas dessas distribuições e rotuladas segundo sua pertinência em uma das classes. Essas amostras são então usadas no treinamento do classificador SVM. A partir desta classificação é estimada uma nova métrica de pertinência de pixels. A metodologia proposta realiza testes com o uso de conjuntos de dados multitemporais de imagens multiespectrais Landsat-TM que cobrem a mesma cena em duas datas diferentes. A métrica de pertinência proposta é validada através de amostras de teste controladas obtidas a partir da técnica Change Vetor Analysis, além disso, os resultados de pertinência obtidos para a imagem original com essa nova métrica são comparados aos resultados de pertinência obtidos para a mesma imagem pela métrica proposta em (Zanotta, 2010). Baseado nos resultados apresentados neste trabalho que mostram que a métrica para determinação de pertinência é válida e também apresenta resultados compatíveis com outra técnica de pertinência publicada na literatura e considerando que para obter esses resultados utilizou-se poucas amostras de treinamento, espera-se que essa métrica deva apresentar melhores resultados que os que seriam apresentados com classificadores paramétricos quando aplicado a imagens multitemporais e hiperespectrais. / This thesis investigates a unsupervised approach to the problem of change detection in multispectral and multitemporal remote sensing images using Support Vector Machines (SVM) with the use of polynomial and RBF kernels and a new metric of pertinence of pixels. The methodology is based on the difference-fraction images produced for each date. In images of natural scenes. This difference in the fractions of bare soil and vegetation tend to have a symmetrical distribution close to the origin. This feature can be used to model the multivariate normal distributions of the classes change and no-change. The Expectation- Maximization algorithm (EM) is implemented in order to estimate the parameters (mean vector, covariance matrix and a priori probability) associated with these two distributions. Then random and normally distributed samples are extracted from these distributions and labeled according to their pertinence to the classes. These samples are then used in the training of SVM classifier. From this classification is estimated a new metric of pertinence of pixel. The proposed methodology performs tests using multitemporal data sets of multispectral Landsat-TM images that cover the same scene at two different dates. The proposed metric of pertinence is validated via controlled test samples obtained from Change Vector Analysis technique. In addition, the results obtained at the original image with the new metric are compared to the results obtained at the same image applying the pertinence metric proposed in (Zanotta, 2010). Based on the results presented here showing that the metric of pertinence is valid, and also provides results consistent with other published in the relevant technical literature, and considering that to obtain these results was used a few training samples, it is expected that the metric proposed should present better results than those that would be presented with parametric classifiers when applied to multitemporal and hyperspectral images.
13

Estudo sobre o uso de informações espectrais e de contexto espacial na ponderação de amostras semi-rotuladas

Grondona, Atilio Efrain Bica January 2011 (has links)
Esta dissertação aborda o problema da utilização de classificadores paramétricos em dados de alta dimensionalidade. As vantagens trazidas pelos dados em alta dimensionalidade são bem conhecidas. Classes que são muito semelhantes podem, não obstante, ser separadas com um alto grau de acurácia desde que a classificação dos dados seja realizada em um espaço de alta dimensionalidade e que as matrizes de covariância das classes difiram significativamente. Sistemas sensores capazes de adquirir dados de imagem em alta dimensionalidade (dados de imagens hiperespectrais) foram, em parte, desenvolvidos para tirar proveito dessa condição. Nas condições do mundo real, no entanto, temos de enfrentar o problema de estimar um grande número de parâmetros, geralmente, com um número limitado de amostras. Amostras de treinamento são geralmente caras e demoradas para adquirir. Diferentes abordagens para resolver ou, pelo menos, atenuar este problema tem sido um tópico de investigação por parte da comunidade internacional em sensoriamento remoto. Entre outras, uma possível abordagem que tem sido proposta na literatura consiste em aumentar o número de amostras pela adição de amostras semi-rotuladas ao processo de estimação dos parâmetros do classificador. A metodologia investigada nesta dissertação segue esta abordagem geral. O foco principal deste estudo consiste em investigar uma abordagem para estimar os pesos a serem associados às amostras semi-rotuladas. A abordagem proposta inclui duas etapas. Na primeira, as estimativas iniciais para os pesos são realizadas de forma interativa, por meio da utilização de informações espectrais somente. Em uma segunda etapa, os pesos estimados são refinados por meio de informações de contexto espacial. A metodologia proposta é avaliada através de experimentos que fazem uso de dados de imagens hiperespectrais AVIRIS. Os resultados são apresentados e discutidos. Sugestões para futuras pesquisas neste tópico também são apresentados. / This dissertation deals with the problem of using parametric classifiers in high dimensional data settings. The advantages brought by high dimensional data are well known. Classes that are very similar can nonetheless be separated with a high degree of accuracy provided that the classification is performed in high dimensional data settings and that the classes’ covariance matrices differ significantly. Sensor system capable of acquiring high dimensional image data (hyperspectral image data) were in part developed to take advantage of this condition. In real world conditions, however, we have to face the problem of estimating a resulting large number of parameters with a generally limited number of samples. Training samples are usually expensive and time consuming to acquire. Different approaches to solve or at least mitigate this problem have been a topic of investigation by the international community in remote sensing. Among others, one possible approach that has been proposed in the literature consists in increasing the number of samples by adding semilabeled samples to the process of estimating the classifier’s parameters. The methodology investigated in this dissertation follows this general approach. The main focus in this study consists in investigating an approach to estimate the weights to be associated with the semilabeled samples. The proposed approach includes two steps. In the first one, initial estimates for the weights are performed in an iterative way, by making use of spectral information only. In a second step, the estimated weights are further adjusted by means of spatial context information. The proposed methodology is evaluated by experiments making use of AVIRIS hyperspectral image data. The results are presented and discussed. Suggestions for further research in this topic are also presented.
14

Métodos computacionais para identificação, quantificação e análise de mudanças no tecido da lesão pulmonar através de imagens de tomografia computadorizada / Computational Methods for Identification, Quantization and Analysis of Changes in the Pulmonary Injury Tomography Computerized.

Barros Netto, Stelmo Magalhães 17 October 2016 (has links)
Submitted by Rosivalda Pereira (mrs.pereira@ufma.br) on 2017-06-26T19:30:57Z No. of bitstreams: 1 Stelmo.pdf: 9433038 bytes, checksum: 2b73bb4f0f32aec1145044fb676465e6 (MD5) / Made available in DSpace on 2017-06-26T19:30:57Z (GMT). No. of bitstreams: 1 Stelmo.pdf: 9433038 bytes, checksum: 2b73bb4f0f32aec1145044fb676465e6 (MD5) Previous issue date: 2016-10-17 / Lung cancer is one of the most common types of cancer around the world. Temporal evaluation has become a very useful tool when to whoever needs to analyze a lung lesion. The analysis occurs when a malignant lesion is under treatment or when there are indeterminate lesions, but they are probably benign. The objective from this work is to develop computational methods to detect, quantify and analyze local and global density changes of pulmonary lesions over time. Thus, it were developed four groups of methods to perform this task. The rst identi es local density changes and it has been denominated voxel-based. The second one is composed of the Jensen divergence and the hypothesis test with global and local approaches. Similarly, the third group has only one method, the principal component analysis. The last group has one method, it has been denominated modi ed quality threshold, and identi es the local density changes. In order to reach the objectives, it was proposed a methodology composed of ve steps: The rst step consists in image acquisition of the lesion at various instants. Two image databases were acquired and two models of lesions were created to evaluate the methods. The rst database has 24 lesions under treatment (public database) and the second has 13 benign nodules (private database) in monitoring. The second step refers to rigid registration of the lesion images. The next step is to apply the proposed four groups of methods. As a result, the second group of methods detected more density changes than the fourth group, which in turn, this latter detected more regions than the rst group and this more than the third group, for the public database. For the private database, the fourth group of density change methods detected more regions than the rst group. The third group detected few regions of changes when compared to the rst group and the second group had the lowest number of detected regions. In addition to the density changes found, the proposed classi cation model with texture features had accuracy above 98% in the diagnosis prediction. The results state that there are changes in both databases. However, the detected changes for each group of methods have di erent intensity and location to the databases. This conclusion is based from high accuracy that was obtained from the prediction of the lesion diagnosis from both databases. / O câncer de pulmão é um dos tipos de câncer de maior incidência no mundo. A avaliação temporal aparece como ferramenta bastante útil quando se deseja analisar uma lesão. A análise pode ocorrer quando uma lesão maligna está em tratamento ou quando surgem lesões indeterminadas, mas essas são provavelmente benignas. O objetivo deste trabalho é desenvolver métodos computacionais para detectar, quantifi car e analisar mudanças de densidade locais e globais das lesões pulmonares ao longo do tempo. Desta forma, foram desenvolvidos quatro conjuntos de métodos para realização da tarefa de detectar mudanças de densidade em lesões pulmonares. O primeiro conjunto identifi ca mudanças de densidade locais e foi denominado de métodos baseados em voxel. O segundo conjunto é composto da divergência de Jensen e do teste de hipótese com abordagens locais e globais. Com o mesmo propósito de detectar mudanças de densidade locais em lesões pulmonares, o terceiro conjunto possui um único método, a análise de componentes principais. O último conjunto também possui um único método, denominado de quality threshold modi ficado e identifi ca as mudanças locais de densidade. Para cumprir o objetivo deste trabalho, propõe-se uma metodologia composta de cinco etapas. A primeira etapa consiste na aquisição das imagens da lesão em diversos instantes. Duas bases de lesões foram utilizadas e dois modelos de lesões foram propostos para avaliação dos métodos. A primeira base possui 24 lesões em tratamento (base pública) e a segunda possui 13 nódulos benignos (base privada) em acompanhamento. A segunda etapa corresponde ao registro rígido das imagens da lesão. A próxima etapa é a aplicação dos quatro conjuntos de métodos propostos. Como resultado, o segundo conjunto de métodos detectou mais mudanças de densidade que o quarto conjunto, que por sua vez, este ultimo detectou mais regões que o primeiro conjunto e este mais que o terceiro conjunto, para a base pública de lesões. Em relação a base privada, o quarto conjunto de métodos detectou mais regiões de mudança de densidade que o primeiro conjunto. O terceiro conjunto detectou menos regiões de mudança quando comparado ao primeiro conjunto e o segundo conjunto teve o menor n úmero de regiões detectadas. Em adição às mudanças de densidade encontradas, o modelo de classi ficação proposto com medidas clássicas de textura para predição do diagnóstico da lesão teve acurácia acima de 98%. Os resultados encontrados indicam que existem mudanças de densidade em ambas as bases de lesões pulmonares. Entretanto, as mudanças detectadas por cada um dos métodos propostos possuem características de intensidade e localização diferentes em ambas as bases. Essa conclusão é motivada pela alta acurácia obtida em seu diagnóstico para as bases utilizadas.
15

Método de monitoramento para gestão de portfólio de produtos

Herzer, Rafael 29 February 2016 (has links)
Submitted by Silvana Teresinha Dornelles Studzinski (sstudzinski) on 2016-06-14T15:45:26Z No. of bitstreams: 1 Rafael Herzer_.pdf: 1397260 bytes, checksum: a9941bd0932b535c5699cf0b35a815dc (MD5) / Made available in DSpace on 2016-06-14T15:45:26Z (GMT). No. of bitstreams: 1 Rafael Herzer_.pdf: 1397260 bytes, checksum: a9941bd0932b535c5699cf0b35a815dc (MD5) Previous issue date: 2016-02-29 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / O presente trabalho tem como objetivo propor um método de monitoramento para gestão de portfólio, o qual, através de um sistema multi-critério e de um modelo econométrico, identifica variações no cenário econômico e em indicadores da empresa sendo então, a partir do monitoramento de resíduos, possível definir o momento exato para alteração de portfólio de produtos. A Gestão de Portfólio de produtos vem atraindo interesse dos gestores das corporações e deste modo, é difícil encontrar alguma organização que não possua uma carteira de produtos e projetos para gerenciar. A Gestão de Portfólio trata das decisões de alocação de recursos e de como ficará a carteira dos produtos atuais, sendo uma ferramenta de extrema importância para o resultado, principalmente financeiro, das organizações. Encontram-se vários métodos na literatura para realizar a Gestão do Portfólio, dentre os quais modelos financeiros, modelos probabilísticos financeiros, modelos de escores e checklists, abordagens de hierarquia analítica, abordagens comportamentais e abordagens de mapas ou diagrama de bolhas são os mais relevantes. Mesmo existindo diversos métodos na literatura para realizar a gestão do portfólio, não há consenso sobre qual método deve ser utilizado em cada etapa específica. Esses métodos também necessitam de intervenção dos gestores, levando em consideração que geralmente as informações disponíveis para tomada de decisão não são completas ou exatas. Para este estudo, foi realizado um estudo de simulação Monte Carlo para avaliar a sensibilidade dos diversos elementos que compõem o método. Os resultados mostraram taxas de alarmes falsos e tempo médio para detectar a mudança semelhantes a estudos anteriores. Esse processo de gestão e tomada de decisão é considerado complexo para os gestores das empresas, uma vez que o portfólio necessita ser periodicamente revisado, buscando sempre maximização de valor e equilíbrio ideal de produtos no mercado. Por fim, a aplicação do modelo é ilustrada por um caso real, utilizando dados fornecidos por uma empresa multinacional do segmento agrícola. / Product Portfolio Management is attracting the interest of the managers of the corporations. With the competitiveness of the market, it is difficult to find an organization that does not have a portfolio of products to manage. The Portfolio Management deals with resource allocation decisions and how will the portfolio of current products be compouse, being an extremely important tool for the result, especially financial, for the organizations. This process of management and decision making is considered complex to company managers, since the portfolio needs to be periodically revised, always seeking to maximize value and correct balance of products on the market. There are several methods in the literature to perform portfolio management, among which financial models, financial probabilistic models, scores and checklists models, analytical hierarchy of approaches, behavioral approaches and approaches map or diagram bubbles are the most relevant. While there are several methods in the literature to make the portfolio management, there is no consensus about which method should be used in each specific step. These methods also require the intervention of managers, taking into account that generally available information for decision-making are not complete or accurate. This paper aims to propose a method, which, through a multi-criteria system containing an econometric model, identifies changes in the economic environment and business indicators and then, from the profile monitoring, can set the exacly time for change portfolio of products. We performed the Monte Carlo simulation study to assess the sensitivity of the various parts that make up the method. The results showed false alarm rate and mean time to detect changes similar to previous studies. Finally, the application of the model is illustrated by a real case using data provided by a multinational company, agricultural segment.
16

Avaliação criteriosa dos algoritmos de detecção de concept drifts

SANTOS, Silas Garrido Teixeira de Carvalho 27 February 2015 (has links)
Submitted by Fabio Sobreira Campos da Costa (fabio.sobreira@ufpe.br) on 2016-07-11T12:33:28Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) silas-dissertacao-versao-final-2016.pdf: 1708159 bytes, checksum: 6c0efc5f2f0b27c79306418c9de516f1 (MD5) / Made available in DSpace on 2016-07-11T12:33:28Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) silas-dissertacao-versao-final-2016.pdf: 1708159 bytes, checksum: 6c0efc5f2f0b27c79306418c9de516f1 (MD5) Previous issue date: 2015-02-27 / FACEPE / A extração de conhecimento em ambientes com fluxo contínuo de dados é uma atividade que vem crescendo progressivamente. Diversas são as situações que necessitam desse mecanismo, como o monitoramento do histórico de compras de clientes; a detecção de presença por meio de sensores; ou o monitoramento da temperatura da água. Desta maneira, os algoritmos utilizados para esse fim devem ser atualizados constantemente, buscando adaptar-se às novas instâncias e levando em consideração as restrições computacionais. Quando se trabalha em ambientes com fluxo contínuo de dados, em geral não é recomendável supor que sua distribuição permanecerá estacionária. Diversas mudanças podem ocorrer ao longo do tempo, desencadeando uma situação geralmente conhecida como mudança de conceito (concept drift). Neste trabalho foi realizado um estudo comparativo entre alguns dos principais métodos de detecção de mudanças: ADWIN, DDM, DOF, ECDD, EDDM, PL e STEPD. Para execução dos experimentos foram utilizadas bases artificiais – simulando mudanças abruptas, graduais rápidas, e graduais lentas – e também bases com problemas reais. Os resultados foram analisados baseando-se na precisão, tempo de execução, uso de memória, tempo médio de detecção das mudanças, e quantidade de falsos positivos e negativos. Já os parâmetros dos métodos foram definidos utilizando uma versão adaptada de um algoritmo genético. De acordo com os resultados do teste de Friedman juntamente com Nemenyi, em termos de precisão, DDM se mostrou o método mais eficiente com as bases utilizadas, sendo estatisticamente superior ao DOF e ECDD. Já EDDM foi o método mais rápido e também o mais econômico no uso da memória, sendo superior ao DOF, ECDD, PL e STEPD, em ambos os casos. Conclui-se então que métodos mais sensíveis às detecções de mudanças, e consequentemente mais propensos a alarmes falsos, obtêm melhores resultados quando comparados a métodos menos sensíveis e menos suscetíveis a alarmes falsos. / Knowledge extraction from data streams is an activity that has been progressively receiving an increased demand. Examples of such applications include monitoring purchase history of customers, movement data from sensors, or water temperatures. Thus, algorithms used for this purpose must be constantly updated, trying to adapt to new instances and taking into account computational constraints. When working in environments with a continuous flow of data, there is no guarantee that the distribution of the data will remain stationary. On the contrary, several changes may occur over time, triggering situations commonly known as concept drift. In this work we present a comparative study of some of the main drift detection methods: ADWIN, DDM, DOF, ECDD, EDDM, PL and STEPD. For the execution of the experiments, artificial datasets were used – simulating abrupt, fast gradual, and slow gradual changes – and also datasets with real problems. The results were analyzed based on the accuracy, runtime, memory usage, average time to change detection, and number of false positives and negatives. The parameters of methods were defined using an adapted version of a genetic algorithm. According to the Friedman test with Nemenyi results, in terms of accuracy, DDM was the most efficient method with the datasets used, and statistically superior to DOF and ECDD. EDDM was the fastest method and also the most economical in memory usage, being statistically superior to DOF, ECDD, PL and STEPD, in both cases. It was concluded that more sensitive change detection methods, and therefore more prone to false alarms, achieve better results when compared to less sensitive and less susceptible to false alarms methods.

Page generated in 0.0831 seconds