• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 20
  • Tagged with
  • 21
  • 21
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Estimativa da condutividade elétrica por meio de dados hiperespectrais em solos afetados por sais / Hiperspectral data applied for estimating electrical conductivity in salty soils

Rocha Neto, Odílio Coimbra da January 2016 (has links)
ROCHA NETO, Odílio Coimbra da. Estimativa da condutividade elétrica por meio de dados hiperespectrais em solos afetados por sais. 2016. 117 f. : Tese (doutorado) - Universidade Federal do Ceará, Centro de Ciências Agrárias, Departamento de Engenharia Agrícola, Programa de Pós-Graduação em Engenharia Agrícola, Fortaleza-CE, 2016. / Submitted by guaracy araujo (guaraa3355@gmail.com) on 2016-08-08T16:15:17Z No. of bitstreams: 1 2016_tese_ocrochaneto.pdf: 3643209 bytes, checksum: f3daa9dd6a70b91cd6315eea748ed3c8 (MD5) / Approved for entry into archive by guaracy araujo (guaraa3355@gmail.com) on 2016-08-08T16:18:45Z (GMT) No. of bitstreams: 1 2016_tese_ocrochaneto.pdf: 3643209 bytes, checksum: f3daa9dd6a70b91cd6315eea748ed3c8 (MD5) / Made available in DSpace on 2016-08-08T16:18:45Z (GMT). No. of bitstreams: 1 2016_tese_ocrochaneto.pdf: 3643209 bytes, checksum: f3daa9dd6a70b91cd6315eea748ed3c8 (MD5) Previous issue date: 2016 / Remote sensing data interpretation is based primarily on the spectral reflectance analysis of materials for wavelength ranging from visible to short wave infrared (400 to 2500nm). For this, one can use reflectance spectroscopy which is a technique capable of measuring, at different wavelengths, the electromagnetic energy reflected from the surface of materials and represent it in the form of a graph called spectral reflectance curve. The analytical power of this technique derives from the spectral information being correlated directly with the chemical composition and physical characteristics of the substances that makes the target. However, the large volume of information contained in a spectral signature increases the difficulty of analyzing it, especially if the dataset is made of images. Thus, computational models are expected to be a viable means of analyzing these spectral curves. The refore, the objective of this thesis is to evaluate the performance of different computational models, such as least squares (LS), multilayer perceptron (MLP) and extreme learning machine (ELM) artificial neural networks, trained on laboratory data to estimate the electrical conductivity of salty soils, and to apply them to a hyperspectral image of the field . This thesis was organized in three parts: first, the ability of computer models to estimate the electrical conductivity of saturation extract (ECse) based on electrical conductivity data from a 1:1 dilution (EC 1:1) is assessed; second, computing strategy for best estimating the electrical conductivity of soil samples using their spectral readings under laboratory conditions are evaluated; and finally, the performance of the best found model applied to an airborne SpecTIR sensor hyperspectral image collected at the Irrigated District of the Morada Nova was evaluated. To evaluate the proposed algorithms, soil samples were collected in the Morada Nova Irrigation District with a history of salinity. These samples were used for model calibration and validation. Spectral data were obtained using the spectroradiometer FieldSpec® 3Hi-Res, from 350 to 2500nm. In an attempt to improve the performance of the models, data transformation was applied using either principal component analysis or derivative analysis. The results show the best performance was produced by the linear model fitted by least squares algorithm applied to the raw data (no transformation), and the spectral bands selected to estimate the electrical conductivity were 395, 1642 and 1717 nm. To estimate the soil's electrical conductivity from SpecTIR's image sensor data, the model calibrated in the laboratory has proved to be feasible, generating a value o f 1.46 for RPD, and 0.80 for the Pearson correlation coefficient. Therefore, one can conclude that the calibrated models using samples in the laboratory are satisfactory for estimating EC based on hyperspectral images. / A interpretação de dados do sensoriamento remoto fundamenta-se, basicamente, na análise do comportamento da reflectância espectral dos materiais no intervalo de comprimento de onda do visível ao infravermelho de ondas curtas (400 a 2500 nm). Para isso, pode-se usar a espectrorradiometria de reflectância, que é uma técnica capaz de medir, em diferentes comprimentos de ondas, a energia eletromagnética refletida da superfície dos materiais e representá-la na forma de um gráfico denominado curva de reflectância espectral. O poder analítico desta técnica advém do fato da informação espectral se correlacionar diretamente com a composição química e com as características físicas das substâncias contidas no alvo. No entanto, o grande volume de informações contidas em uma assinatura espectral aumenta a dificuldade de analisá-la, principalmente quando se trabalha com imagens. Com isso, o emprego de modelos computacionais se mostra como uma saída viável para a análise de curvas espectrais. Dessa forma, o objetivo desta tese é avaliar o desempenho de diferentes modelos computacionais como: mínimos quadrados (MQ), rede neural artificial do tipo perceptron de múltiplas camadas (MLP) e máquina de aprendizagem extrema (ELM), treinados em laboratório para estimar a condutividade elétrica do solo, e aplicá-los em imagens de alta resolução espectral. Esta tese foi separada em três etapas onde foram avaliados: a capacidade dos modelos computacionais em estimar a condutividade elétrica do extrato de saturação (CEes) a partir de amostra de condutividade elétrica 1:1 (CE1:1); as estratégias computacionais que melhor estimam a condutividade elétrica de amostras de solo a partir de leituras espectrais de solos obtidas em laboratório; e testar desempenho da melhor estratégia obtida no passo anterior, aplicando-a em uma imagem do sensor aerotransportado SpecTIR, coletado na região do Perímetro Irrigado de Morada Nova. Para avaliação dos algoritmos, foram coletadas amostras de solos na região de Morada Nova com histórico de áreas afetadas por sais. Estas amostras foram utilizadas para a calibração e validação dos modelos. Dados espectrais foram obtidos utilizando o espectrorradiômetro FieldSpec® 4 Hi-Res, entre 350 a 2500 nm. Foi avaliado o ganho de performance dos modelos matemáticos pela transformação dos dados através da análise por componente principal e pela análise derivativa. Com os resultados obtidos, pôde-se observar que as melhores respostas foram alcançadas pelo modelo linear dos mínimos quadrados aplicados aos dados puros, onde as bandas selecionadas para estimar a condutividade elétrica foram de 395, 1642 e 1717 nm. Para estimar a condutividade elétrica do solo na imagem do sensor SpecTIR sobre a área de estudo, o modelo calibrado em laboratório se mostrou interessante, produzindo um RPD de 1,46 e um coeficiente de correlação de Pearson de 0,80. Com isso, conclui-se que os modelos calibrados utilizando amostras em laboratório são satisfatórios para estimar a CE de imagens hiperespectrais.
12

Uma técnica de decomposição a priori para geração paralela de malhas bidimensionais / A priori decomposition technique for parallel generation of two-dimensional meshes

Teixeira, Daniel Nascimento January 2014 (has links)
TEIXEIRA, D. N. Uma técnica de decomposição a priori para geração paralela de malhas bidimensionais. 2014. 95 f. Dissertação (Mestrado em Ciência da Computação) - Centro de Ciências, Universidade Federal do Ceará, Fortaleza, 2014. / Submitted by Daniel Eduardo Alencar da Silva (dealencar.silva@gmail.com) on 2015-01-23T18:25:13Z No. of bitstreams: 1 2014_dis_dnteixeira.pdf: 17919971 bytes, checksum: 092ad12b33cf64a31552e6a839a5a5bc (MD5) / Approved for entry into archive by Rocilda Sales(rocilda@ufc.br) on 2015-09-23T16:26:52Z (GMT) No. of bitstreams: 1 2014_dis_dnteixeira.pdf: 17919971 bytes, checksum: 092ad12b33cf64a31552e6a839a5a5bc (MD5) / Made available in DSpace on 2015-09-23T16:26:52Z (GMT). No. of bitstreams: 1 2014_dis_dnteixeira.pdf: 17919971 bytes, checksum: 092ad12b33cf64a31552e6a839a5a5bc (MD5) Previous issue date: 2014 / This work describes a technique of two-dimensional domain decomposition for parallel mesh generation. This technique works for both distributed and shared memory and has the freedom to use any data structure that manages rectangular regions parallel to the axes to decompose the domain given as input, such as a quaternary tree (quadtree) or a binary space decomposition (bsp), for example. Any process of mesh generation that respects the prerequisites established can be used in the subdomains created, for instance, Delaunay or Advancing Front, among others. This technique is called a priori because the mesh on the interface of the subdomains is generated prior to the their internal meshes. The load estimation for each sub-domain in this work is performed with the aid of a refined quadtree, whose level of refinement guides the creation of edges that are defined from the bounderies of only inner cells. This way of estimate load produces results that accurately represent the number of elements to be generated in each subdomain. That contributes to a good partitioning of the domain, making the mesh generation in parallel be significantly faster than the serial generation. Furthermore, the quality of the generated mesh in parallel is qualitatively equivalent to that generated serially within acceptable limits. / Este trabalho descreve uma técnica de decomposição de domínios bidimensionais para geração em paralelo de malhas. Esta técnica funciona tanto para memória distribuída quanto compartilhada, além de permitir que se utilize qualquer estrutura de dados que gere regiões quadrangulares paralelas aos eixos para decompor o domínio dado como entrada. Pode se utilizar por exemplo, uma árvore quaternária (quadtree) ou uma partição binária do espaço (bsp). Além disso, qualquer processo de geração de malha que respeite os pré-requisitos estabelecidos pode ser empregado nos subdomínios criados, como as técnicas de Delaunay ou Avanço de Fronteira, dentre outras. A técnica proposta é dita a priori porque a malha de interface entre os subdomínios é gerada antes das suas malhas internas. A estimativa de carga de processamento associada a cada subdomínio é feita nesse trabalho com a ajuda de uma quadtree refinada, cujo nível de refinamento orienta a criação das arestas que são definidas a partir da discretização das fronteiras das células internas. Essa maneira de estimar carga produz resultados que representam, com boa precisão, o número de elementos a serem gerados em cada subdomínio. Isso contribui para um bom particionamento do domínio, fazendo com que a geração de malha em paralelo seja significativamente mais rápida do que a geração serial. Além disso, a qualidade da malha gerada em paralelo é qualitativamente equivalente àquela gerada serialmente, dentro de limites aceitáveis.
13

Implementação de recuperação por retorno de aplicações distribuídas baseada em checkpoints coordenados

Buligon, Clairton January 2005 (has links)
A recuperação por retorno baseada em checkpointing é largamente usada como técnica de tolerância a falhas. O modelo complexo de sistemas distribuídos tem motivado o desenvolvimento de diversos algoritmos na tentativa de encontrar soluções mais simples e eficientes. Os processos que formam o sistema distribuído podem coordenar suas operações para garantir que o conjunto de checkpoints locais componha um estado global consistente (linha de recuperação). A partir desse estado, no caso de ocorrência de falhas, o sistema pode ser recuperado e a computação retomada a partir de um momento anterior ao da manifestação da falha, evitando o retrocesso para o estado inicial da computação e prevenindo a ocorrência de prejuízos com a perda de todo processamento até então realizado. No Grupo de Tolerância a Falhas da UFRGS foi proposto recentemente um algoritmo que é voltado para aplicações que executam em sistemas distribuídos assíncronos que se comunicam exclusivamente pela troca de mensagens. Ele opera com salvamento coordenado de checkpoints (não bloqueando as aplicações) e prevê o tratamento de mensagens órfãs e perdidas. Os mecanismos do algoritmo sugerem que nenhuma alteração deveria ser realizada no código das aplicações, criando a possibilidade de implementação transparente sob o ponto de vista dos usuários e dos programadores das aplicações. Como o algoritmo não requer o bloqueio das aplicações, a sobrecarga imposta pelos mecanismos à execução livre de falhas é pequena. Além disso, o processo de recuperação tende a ser efetuado rapidamente, uma vez que é garantida a existência de uma linha de recuperação consistente, facilmente identificada Este trabalho apresenta as decisões de projeto, a implementação, os resultados e a avaliação de desempenho desse algoritmo. A avaliação das alternativas de implementação resultou na decisão de uma implementação então realizada diretamente sobre o sistema operacional Linux, sem recorrer a protocolos auxiliares para garantir a execução dos serviços e sem a necessidade de adaptações no código das aplicações nem no código do sistema operacional. Adicionalmente, os resultados comprovaram a expectativa inicial de que o algoritmo causaria pouca sobrecarga no sistema (menos de 2%), embora ele ainda apresente alta dependência do tamanho dos checkpoints salvos.
14

Implementação de recuperação por retorno de aplicações distribuídas baseada em checkpoints coordenados

Buligon, Clairton January 2005 (has links)
A recuperação por retorno baseada em checkpointing é largamente usada como técnica de tolerância a falhas. O modelo complexo de sistemas distribuídos tem motivado o desenvolvimento de diversos algoritmos na tentativa de encontrar soluções mais simples e eficientes. Os processos que formam o sistema distribuído podem coordenar suas operações para garantir que o conjunto de checkpoints locais componha um estado global consistente (linha de recuperação). A partir desse estado, no caso de ocorrência de falhas, o sistema pode ser recuperado e a computação retomada a partir de um momento anterior ao da manifestação da falha, evitando o retrocesso para o estado inicial da computação e prevenindo a ocorrência de prejuízos com a perda de todo processamento até então realizado. No Grupo de Tolerância a Falhas da UFRGS foi proposto recentemente um algoritmo que é voltado para aplicações que executam em sistemas distribuídos assíncronos que se comunicam exclusivamente pela troca de mensagens. Ele opera com salvamento coordenado de checkpoints (não bloqueando as aplicações) e prevê o tratamento de mensagens órfãs e perdidas. Os mecanismos do algoritmo sugerem que nenhuma alteração deveria ser realizada no código das aplicações, criando a possibilidade de implementação transparente sob o ponto de vista dos usuários e dos programadores das aplicações. Como o algoritmo não requer o bloqueio das aplicações, a sobrecarga imposta pelos mecanismos à execução livre de falhas é pequena. Além disso, o processo de recuperação tende a ser efetuado rapidamente, uma vez que é garantida a existência de uma linha de recuperação consistente, facilmente identificada Este trabalho apresenta as decisões de projeto, a implementação, os resultados e a avaliação de desempenho desse algoritmo. A avaliação das alternativas de implementação resultou na decisão de uma implementação então realizada diretamente sobre o sistema operacional Linux, sem recorrer a protocolos auxiliares para garantir a execução dos serviços e sem a necessidade de adaptações no código das aplicações nem no código do sistema operacional. Adicionalmente, os resultados comprovaram a expectativa inicial de que o algoritmo causaria pouca sobrecarga no sistema (menos de 2%), embora ele ainda apresente alta dependência do tamanho dos checkpoints salvos.
15

Aplicação de algoritmos de mineração de dados para classificação molecular de Leptospira spp / Application of data mining algorithms for molecular classification of Leptospira spp

Labonde, Julia 19 February 2016 (has links)
Submitted by Maria Beatriz Vieira (mbeatriz.vieira@gmail.com) on 2017-08-30T14:07:13Z No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) dissertacao_julia_labonde.pdf: 678599 bytes, checksum: d233ff13ddb416df716b9ee25c98978d (MD5) / Approved for entry into archive by Aline Batista (alinehb.ufpel@gmail.com) on 2017-09-01T19:13:34Z (GMT) No. of bitstreams: 2 dissertacao_julia_labonde.pdf: 678599 bytes, checksum: d233ff13ddb416df716b9ee25c98978d (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Approved for entry into archive by Aline Batista (alinehb.ufpel@gmail.com) on 2017-09-01T19:14:34Z (GMT) No. of bitstreams: 2 dissertacao_julia_labonde.pdf: 678599 bytes, checksum: d233ff13ddb416df716b9ee25c98978d (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Made available in DSpace on 2017-09-01T19:14:45Z (GMT). No. of bitstreams: 2 dissertacao_julia_labonde.pdf: 678599 bytes, checksum: d233ff13ddb416df716b9ee25c98978d (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Previous issue date: 2016-02-19 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / A leptospirose é uma doença infecciosa de importância mundial, que afeta humanos e animais, causada por espiroquetas patogênicas pertencentes ao gênero Leptospira. Para a área epidemiológica e clínica é fundamental que os laboratórios tenham a capacidade de identificar e classificar com precisão as espécies de Leptospira que causam doença, para que sejam tomadas decisões coerentes com relação à saúde pública. Neste estudo, nós relatamos pela primeira vez a utilização de ferramentas de mineração de dados para fins de classificação de cepas do gênero Leptospira. Vinte e cinco loci referentes a 15 genes foram selecionadas e analisados em 600 genomas rascunho de Leptospira, com o propósito de buscar polimorfismos que pudessem ser utilizados na classificação de cada espécie. Para isso, foram utilizados os algoritmos baseados em mineração de dados C4.5, Naive Bayes e Support Vector Machine. Todos os algoritmos computacionais de mineração de dados utilizados neste trabalho apresentaram valores de acurácia acima de 93% para classificação de Leptospira a nível de espécie, no entanto, o algoritmo C4.5, além de atingir a melhor acurácia de classificação (95.6%), também apresentou os genes que contribuíram para o resultado final da análise. O mesmo banco de dados genômicos utilizado pelos algoritmos computacionais foi submetido a testes com a metodologia MLST – técnica mais utilizada para classificação molecular de espécies deste gênero – no entanto, nenhum dos testes apresentou acurácia superior a 80%. Visto o algoritmo de mineração de dados C4.5 atingir uma acurácia superior aos outros algoritmos, pode-se concluir que C4.5 é uma ferramenta de mineração de dados bastante promissora para classificar espécies de Leptospira. / Leptospirosis is an infectious disease of global importance that affects humans and animals caused by pathogenic spirochetes belonging to the genus Leptospira. For epidemiological and clinical areas, it is essential that laboratories have the ability to identify and classify accurately species of Leptospira that cause disease, to take decisions consistent with respect to public health. In this study, we report for the first time the use of data mining tools for the purposes of strain classification of the genus Leptospira. Twenty-five loci related to 15 genes were selected and analyzed in 600 Leptospira draft genomes in order to search polymorphisms that could be used for the classification of each species. For this, data mining-based algorithms - C4.5, Naive Bayes and SVM - were used. All data mining computational algorithms used in this study showed accuracy levels above 93% for Leptospira classification species, however, the C4.5 algorithm achieve the best accuracy rating (95.6%) and presented the genes that contributed to the final result of the analysis. The same genomic database used by computer algorithms has been tested with the MLST methodology – most used technique for molecular classification of species of this genus - however, none of the tests show accuracy higher to 80%. Because data mining algorithm C4.5 achieve better accuracy than other algorithms, it can be concluded that C4.5 is a very promising data mining tool to classify species of Leptospira.
16

Hiperspectral data applied for estimating electrical conductivity in salty soils / Estimativa da condutividade elÃtrica por meio de dados hiperespectrais em solos afetados por sais

OdÃlio Coimbra da Rocha Neto 19 February 2016 (has links)
CoordenaÃÃo de AperfeÃoamento de Pessoal de NÃvel Superior / A interpretaÃÃo de dados do sensoriamento remoto fundamenta-se, basicamente, na anÃlise do comportamento da reflectÃncia espectral dos materiais no intervalo de comprimento de onda do visÃvel ao infravermelho de ondas curtas (400 a 2500 nm). Para isso, pode-se usar a espectrorradiometria de reflectÃncia, que à uma tÃcnica capaz de medir, em diferentes comprimentos de ondas, a energia eletromagnÃtica refletida da superfÃcie dos materiais e representÃ-la na forma de um grÃfico denominado curva de reflectÃncia espectral. O poder analÃtico desta tÃcnica advÃm do fato da informaÃÃo espectral se correlacionar diretamente com a composiÃÃo quÃmica e com as caracterÃsticas fÃsicas das substÃncias contidas no alvo. No entanto, o grande volume de informaÃÃes contidas em uma assinatura espectral aumenta a dificuldade de analisÃ-la, principalmente quando se trabalha com imagens. Com isso, o emprego de modelos computacionais se mostra como uma saÃda viÃvel para a anÃlise de curvas espectrais. Dessa forma, o objetivo desta tese à avaliar o desempenho de diferentes modelos computacionais como: mÃnimos quadrados (MQ), rede neural artificial do tipo perceptron de mÃltiplas camadas (MLP) e mÃquina de aprendizagem extrema (ELM), treinados em laboratÃrio para estimar a condutividade elÃtrica do solo, e aplicÃ-los em imagens de alta resoluÃÃo espectral. Esta tese foi separada em trÃs etapas onde foram avaliados: a capacidade dos modelos computacionais em estimar a condutividade elÃtrica do extrato de saturaÃÃo (CEes) a partir de amostra de condutividade elÃtrica 1:1 (CE1:1); as estratÃgias computacionais que melhor estimam a condutividade elÃtrica de amostras de solo a partir de leituras espectrais de solos obtidas em laboratÃrio; e testar desempenho da melhor estratÃgia obtida no passo anterior, aplicando-a em uma imagem do sensor aerotransportado SpecTIR, coletado na regiÃo do PerÃmetro Irrigado de Morada Nova. Para avaliaÃÃo dos algoritmos, foram coletadas amostras de solos na regiÃo de Morada Nova com histÃrico de Ãreas afetadas por sais. Estas amostras foram utilizadas para a calibraÃÃo e validaÃÃo dos modelos. Dados espectrais foram obtidos utilizando o espectrorradiÃmetro FieldSpec 4 Hi-Res, entre 350 a 2500 nm. Foi avaliado o ganho de performance dos modelos matemÃticos pela transformaÃÃo dos dados atravÃs da anÃlise por componente principal e pela anÃlise derivativa. Com os resultados obtidos, pÃde-se observar que as melhores respostas foram alcanÃadas pelo modelo linear dos mÃnimos quadrados aplicados aos dados puros, onde as bandas selecionadas para estimar a condutividade elÃtrica foram de 395, 1642 e 1717 nm. Para estimar a condutividade elÃtrica do solo na imagem do sensor SpecTIR sobre a Ãrea de estudo, o modelo calibrado em laboratÃrio se mostrou interessante, produzindo um RPD de 1,46 e um coeficiente de correlaÃÃo de Pearson de 0,80. Com isso, conclui-se que os modelos calibrados utilizando amostras em laboratÃrio sÃo satisfatÃrios para estimar a CE de imagens hiperespectrais. / Remote sensing data interpretation is based primarily on the spectral reflectance analysis of materials for wavelength ranging from visible to short wave infrared (400 to 2500nm). For this, one can use reflectance spectroscopy which is a technique capable of measuring, at different wavelengths, the electromagnetic energy reflected from the surface of materials and represent it in the form of a graph called spectral reflectance curve. The analytical power of this technique derives from the spectral information being correlated directly with the chemical composition and physical characteristics of the substances that makes the target. However, the large volume of information contained in a spectral signature increases the difficulty of analyzing it, especially if the dataset is made of images. Thus, computational models are expected to be a viable means of analyzing these spectral curves. The refore, the objective of this thesis is to evaluate the performance of different computational models, such as least squares (LS), multilayer perceptron (MLP) and extreme learning machine (ELM) artificial neural networks, trained on laboratory data to estimate the electrical conductivity of salty soils, and to apply them to a hyperspectral image of the field . This thesis was organized in three parts: first, the ability of computer models to estimate the electrical conductivity of saturation extract (ECse) based on electrical conductivity data from a 1:1 dilution (EC 1:1) is assessed; second, computing strategy for best estimating the electrical conductivity of soil samples using their spectral readings under laboratory conditions are evaluated; and finally, the performance of the best found model applied to an airborne SpecTIR sensor hyperspectral image collected at the Irrigated District of the Morada Nova was evaluated. To evaluate the proposed algorithms, soil samples were collected in the Morada Nova Irrigation District with a history of salinity. These samples were used for model calibration and validation. Spectral data were obtained using the spectroradiometer FieldSpec 3Hi-Res, from 350 to 2500nm. In an attempt to improve the performance of the models, data transformation was applied using either principal component analysis or derivative analysis. The results show the best performance was produced by the linear model fitted by least squares algorithm applied to the raw data (no transformation), and the spectral bands selected to estimate the electrical conductivity were 395, 1642 and 1717 nm. To estimate the soil's electrical conductivity from SpecTIR's image sensor data, the model calibrated in the laboratory has proved to be feasible, generating a value o f 1.46 for RPD, and 0.80 for the Pearson correlation coefficient. Therefore, one can conclude that the calibrated models using samples in the laboratory are satisfactory for estimating EC based on hyperspectral images.
17

Proposta do Kernel Sigmoide (KSIG) e sua análise de convergência para a solução de problemas de filtragem adaptativa não linear

Silva, Éden Pereira da 27 January 2017 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / Adaptive filtering is applied as solution for many problems in engineer. There are many techniques to improve adaptive filtering as kernel methods and, in addiction, it is used a pretuned dictionary. In this context, here is presented the KSIG algorithm, the kernel version of Sigmoide, where is used the kernel, to decrease the error, and the non-linear and even cost function to increase the convergence speed. Here it is described also, the KSIG with a pretuned dictionary, to reduce the size of the data set used to calculate the filter output, which is a kernel method consequence . The KSIG and KSIG with pre-tuned dictionary theoretical efficiency is one result of their convergence proof, which evidence that the algorithms converge in average. The learning curves, which are results of some experiments, show that when KSIG and KLMS algorithms are compared, the first converges faster, in less iterations, than the second, in the version with and without pre-tuned dictionary of both algorithms. / A filtragem adaptativa é aplicada na solução de diversos problemas da engenharia. Há muitas alternativas para melhorá-la, uma delas é o uso de kernel e, em adição, o uso de um dicionário pré-definido de dados. Neste contexto, este trabalho apresenta o KSIG, a versão em kernel do algoritmo Sigmoide, um algoritmo que otimiza o erro do filtro pelo emprego de uma função de custo par e não linear. Ademais, é apresentada a versão do KSIG com dicionário de dados pré-definido, visando redução do grande número de dados utilizados para obtenção da saída decorrente do uso da técnica com kernel. A eficiência teórica do KSIG e de sua versão com dicionário pré-definido é um resultado presente nas provas de convergência construídas para ambos os algoritmos, as quais demonstraram que estes convergem em média. Já as curvas de aprendizagem obtidas nas simulações computacionais dos experimentos realizados demonstraram que o KSIG quando comparado ao KLMS, em diferentes problemas de filtragem adaptativa, apresenta convergência mais rápida, em menos iterações, tanto nas versões sem tanto com dicionário pré-definido de ambos os algoritmos.
18

Uma contribuição à estratégia para alocação de medidores e estimação das distorções harmônicas / A contribution to the strategy for the allocation of meters and estimation of harmonic distortions

Santos, Gustavo Gonçalves 01 February 2018 (has links)
FAPEMIG - Fundação de Amparo a Pesquisa do Estado de Minas Gerais / Diante do reconhecido aumento dos níveis de distorções harmônicas presentes nas redes de distribuição e transmissão e o estabelecimento de limites para esses fenômenos pelas agências regulatórias, a busca por meios otimizados destinados à determinação dos níveis de distorções presentes nas redes elétricas têm motivado várias pesquisas voltadas para a questão dos estimadores de estado harmônico aplicados a esse fim. Tais desafios se fazem prementes visto o grande número de pontos físicos presentes nas redes elétricas e que requerem monitorações diversas, fato este determinante para a busca de meios que venham, a partir de um número mínimo de medidores, determinar o estado operacional com que se encontra um determinado complexo elétrico quanto aos indicadores ora contemplados. Para o cumprimento das metas ora postas, reconhece-se, na atualidade, a existência de métodos diversos visando a alocação dos medidores e a estimação de estado, cujo último se apresenta como ferramenta de elevada aplicabilidade para os denominados sistemas determinados como também para os subdeterminados. Focando, pois, esta área de concentração, esse trabalho está direcionado ao processo avaliativo do desempenho de cinco algoritmos evolutivos e, através de simulações conduzidas por um programa desenvolvido para os fins desta pesquisa, tais procedimentos são testados e avaliados quanto a sua eficácia para o atendimento aos requisitos da correlação entre os níveis das distorções harmônicas existentes e aqueles prescritos pela legislação. / In view of the recognized increase in the levels of harmonic distortions present in the distribution and transmission networks and the establishment of limits for this phenomenon by regulatory agencies, the search for optimized means to determine the levels of distortions present in the electric networks has motivated several researches aimed at the question of the harmonic state estimators applied for this purpose. Such challenges become urgent considering the large number of physical points present in the electrical networks and that require monitoring, a fact that is determinant for the search of means that come, from a minimum number of meters, to determine the operational state in which it is an electrical complex regarding the indicators considered herein. In this context, it is recognized that there are several methods for the meters’ allocation and state estimation procedures, whose the last is a highly applicable tool for the so-called determined systems, as well, as non-determined ones. Focusing on this area of concentration, this work is directed to the evaluation process of the performance of five evolutionary algorithms and, through simulations conducted through a program developed for the purposes of this research, such procedures are tested and evaluated as to their effectiveness for the requirements of the correlation between the levels of existing harmonic distortions and those required by the required standards. / Dissertação (Mestrado)
19

Um algoritmos distribuído para escalonamento de sensores em RSSF / A distributed algorithms for scheduling sensors in RSSF

Matos, Daniel Ribeiro January 2013 (has links)
MATOS, Daniel Ribeiro. Um algoritmos distribuído para escalonamento de sensores em RSSF. 2013. 59 f. : Dissertação (mestrado) - Universidade Federal do Ceará, Centro de Ciências, Departamento de Computação, Fortaleza-CE, 2013. / Submitted by guaracy araujo (guaraa3355@gmail.com) on 2016-06-16T17:08:19Z No. of bitstreams: 1 2013_dis_drmatos.pdf: 2537544 bytes, checksum: 870eae75ce068b1ef961e23307dda2a9 (MD5) / Approved for entry into archive by guaracy araujo (guaraa3355@gmail.com) on 2016-06-16T17:11:38Z (GMT) No. of bitstreams: 1 2013_dis_drmatos.pdf: 2537544 bytes, checksum: 870eae75ce068b1ef961e23307dda2a9 (MD5) / Made available in DSpace on 2016-06-16T17:11:38Z (GMT). No. of bitstreams: 1 2013_dis_drmatos.pdf: 2537544 bytes, checksum: 870eae75ce068b1ef961e23307dda2a9 (MD5) Previous issue date: 2013 / Wireless Sensor Networks (WSNs) are used in a lot of applications: from smart homes to military enviromnets. In general, WSNs has severe energy restrictions - a sensor usualy has a limited batery and it’s not replaceable. Distributing the sensor in a random mander can lead to a redundancy of some areas and this is desirable to support fail of some sensors. In this work, we propose an distributed algorithm to schedule active sensors to reduce the redundancy of data obtainned by the network and prolong the network lifetime. / Redes de Sensores Sem Fio (RSSF) são utilizadas em diversos tipos de aplicações: desde casas inteligentes a aplicações militares. RSSF possuem, em geral, severas restrições energéticas - um sensor geralmente possui uma quantidade limitada de bateria e este não é substituível. Os sensores podem possuir uma certa redundância de uma área sensoreada, uma vez que, quando os sensores são distribuídos de forma aleatória, alguns sensores acabam ficando muito próximos, ou mesmo quando são depositados de maneira determinística, uma certa redundância é necessária para prever a falha de alguns destes sensores. Neste trabalho, propomos um algoritmo distribuído que faz um escalonamento de sensores ativos, de forma a reduzir a redundância dos dados coletados e aumentar o tempo de vida da rede de sensores.
20

Uma abordagem híbrida baseada em Projeções sobre Conjuntos Convexos para Super-Resolução espacial e espectral / A hybrid approach based on projections onto convex sets for spatial and spectral super-resolution

Cunha, Bruno Aguilar 10 November 2016 (has links)
Submitted by Milena Rubi ( ri.bso@ufscar.br) on 2017-10-17T16:07:35Z No. of bitstreams: 1 CUNHA_Bruno_2017.pdf: 1281922 bytes, checksum: 605ecd45f46a3b67332ed6bd13043af5 (MD5) / Approved for entry into archive by Milena Rubi ( ri.bso@ufscar.br) on 2017-10-17T16:07:44Z (GMT) No. of bitstreams: 1 CUNHA_Bruno_2017.pdf: 1281922 bytes, checksum: 605ecd45f46a3b67332ed6bd13043af5 (MD5) / Approved for entry into archive by Milena Rubi ( ri.bso@ufscar.br) on 2017-10-17T16:07:53Z (GMT) No. of bitstreams: 1 CUNHA_Bruno_2017.pdf: 1281922 bytes, checksum: 605ecd45f46a3b67332ed6bd13043af5 (MD5) / Made available in DSpace on 2017-10-17T16:08:04Z (GMT). No. of bitstreams: 1 CUNHA_Bruno_2017.pdf: 1281922 bytes, checksum: 605ecd45f46a3b67332ed6bd13043af5 (MD5) Previous issue date: 2016-11-10 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / This work proposes both a study and a development of an algorithm for super-resolution of digital images using projections onto convex sets. The method is based on a classic algorithm for spatial super-resolution which considering the subpixel information present in a set of lower resolution images, generate an image of higher resolution and better visual quality. We propose the incorporation of a new restriction based on the Richardson-Lucy algorithm in order to restore and recover part of the spatial frequencies lost during the degradation and decimation process of the high resolution images. In this way the algorithm provides a hybrid approach based on projections onto convex sets which is capable of promoting both the spatial and spectral image super-resolution. The proposed approach was compared with the original algorithm from Sezan and Tekalp and later with a method based on a robust framework that is considered nowadays one of the most effective methods for super-resolution. The results, considering both the visual and the mean square error analysis, demonstrate that the proposed method has great potential promoting increased visual quality over the images studied. / Este trabalho visa o estudo e o desenvolvimento de um algoritmo para super-resolução de imagens digitais baseado na teoria de projeções sobre conjuntos convexos. O método é baseado em um algoritmo clássico de projeções sobre restrições convexas para super- resolução espacial onde se busca, considerando as informações subpixel presentes em um conjunto de imagens de menor resolução, gerar uma imagem de maior resolução e com melhor qualidade visual. Propomos a incorporação de uma nova restrição baseada no algoritmo de Richardson-Lucy para restaurar e recuperar parte das frequências espaciais perdidas durante o processo de degradação e decimação das imagens de alta resolução. Nesse sentido o algoritmo provê uma abordagem híbrida baseada em projeções sobre conjuntos convexos que é capaz de promover simultaneamente a super-resolução espacial e a espectral. A abordagem proposta foi comparada com o algoritmo original de Sezan e Tekalp e posteriormente com um método baseado em um framework de super-resolução robusta, considerado um dos métodos mais eficazes na atualidade. Os resultados obtidos, considerando as análises visuais e também através do erro médio quadrático, demonstram que o método proposto possui grande potencialidade promovendo o aumento da qualidade visual das imagens estudadas.

Page generated in 0.0552 seconds