• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 274
  • 8
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • Tagged with
  • 296
  • 296
  • 229
  • 186
  • 167
  • 123
  • 65
  • 42
  • 35
  • 34
  • 30
  • 28
  • 28
  • 24
  • 24
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
211

Combinação de múltiplos classificadores para reconhecimento de face humana

Salvadeo, Denis Henrique Pinheiro 24 July 2009 (has links)
Made available in DSpace on 2016-06-02T19:05:35Z (GMT). No. of bitstreams: 1 2559.pdf: 3778790 bytes, checksum: 6c638e612ae760d51fad8def01969ed1 (MD5) Previous issue date: 2009-07-24 / Universidade Federal de Sao Carlos / Lately, the human face object has been exploited by the advent of systems involving biometrics, especially for applications in security. One of the most challenging applications is the problem of human face recognition, which consists of determining the correspondence between an input face and an individual from a database of known persons. The process of face recognition consists of two steps: feature extraction and classification. In the literature of face recognition, different techniques have been used, and they can be divided into holistic techniques (implicit feature extraction), feature-based techniques (explicit feature extraction) and hybrid techniques (involving the two previous). In many articles, holistic techniques have proved to be most efficient and generally they involve methods of statistical pattern recognition as Principal Component Analysis (PCA), Independent Component Analysis (ICA), Linear Discriminant Analysis (LDA), Support Vector Machines (SVM), and Neural Networks. For problems such as human face recognition in digital images, a crucial point is the ability to generalize. The solution for this problem is complex due to the high dimensionality of data and the small number of samples per person. Using a single classifier would reduce the ability of recognition, since it is difficult to design a single classifier in these conditions that capture all variability that span the human faces spaces. Thus, this work proposes to investigate the combination of multiple classifiers applied to the problem of face recognition, defining a new scheme to resolve this problem, varying the feature extraction with PCA and some its variants and LDA, K-Nearest Neighbor (K-NN) and Maximum Likelihood (MaxLike) classifiers and several trainable or not trainable methods for combining classifiers. Still, to mitigate the problem of small sample size (SSS), a technique for regularizing the covariance matrix was used. Finally, to assess the classification performance, Holdout and Resubstitution methods were used to partition the data set and the Kappa coefficient and Z and T statistics were used to measure the performance of the proposed scheme. From the experiments it was concluded that the best sub-schemes were the RBPCA/MaxLike-PCA/NN-KL5/NN classifiers combined by the Majorite Vote Rule for the ORL database and the RLDA+RPCA/MaxLike-KL4/NNKL5/ NN classifiers combined by the Sum Rule for the AR database, obtaining Kappa coefficients of 0.956 (mean) and 0.839, respectively. Besides that, it has been determined that these sub-schemes are robust to pose (ORL database), illumination and small change of the facial expression, but they were affected by occlusions (AR database). / Nas últimas décadas, o objeto face humana tem sido muito explorado graças ao advento dos sistemas envolvendo biometria, especialmente para aplicações nas áreas de segurança. Uma das aplicações mais desafiadoras é o problema de reconhecimento de face humana, que consiste em determinar a qual indivíduo em um banco de dados de pessoas conhecidas uma imagem de face corresponde. O processo de reconhecimento de face consiste basicamente em duas etapas: extração de atributos e classificação. Na literatura de reconhecimento de faces, diversas técnicas foram utilizadas, podendo ser divididas em técnicas holísticas (extração de atributos implícita), técnicas baseadas em características (extração de atributos explícita) e técnicas híbridas (envolvem as duas anteriores). Em maior número na literatura, as técnicas holísticas demonstraram ser mais eficientes e envolvem em geral, métodos de reconhecimento de padrões estatísticos como Principal Component Analysis (PCA), Independent Component Analysis (ICA), Linear Discriminant Analysis (LDA), Support Vector Machines (SVM), além de Redes Neurais. Para problemas como o reconhecimento de face humana em imagens digitais, um ponto determinante é a capacidade de generalização. Por esse problema ser complexo de ser resolvido, devido à alta dimensionalidade dos dados e ao número pequeno de amostras por pessoa, utilizar um único classificador tornaria reduzida a capacidade de reconhecimento, já que é difícil projetar um único classificador nestas condições que capture todas as variações que formam o espaço de faces humanas. Dessa forma, este trabalho se propôs à investigação de combinação de múltiplos classificadores aplicados ao problema do reconhecimento de face, obtendo um novo esquema para solução do mesmo, variando a extração de atributos com PCA e algumas variantes e LDA, classificadores K Vizinhos Mais Próximos e Máxima Verossimilhança e diversos combinadores treináveis ou não. Ainda, para amenizar o problema de poucas amostras, uma técnica de regularização de matrizes de covariância foi utilizada. Finalmente, para avaliação de desempenho utilizou-se Holdout e Resubstitution para particionar o conjunto de dados, assim como o coeficiente Kappa e testes de significância Z e T foram utilizados para medir o desempenho do esquema proposto. Dos experimentos concluiu-se que os melhores subesquemas foram o RBPCA/MaxVer-PCA/NN-KL5/NN → Votação por Maioria para o banco de dados ORL e o RLDA+RPCA/MaxVer-KL4/NN-KL5/NN → Soma para o banco de dados AR com coeficientes Kappa 0,956 (médio) e 0,839, respectivamente. Além disso, foi determinado que estes subesquemas são robustos à pose (ORL), iluminação e à pequenas variações de expressão facial, mas sofreram influência de oclusões (AR).
212

Comparação de métodos de estimação para problemas com colinearidade e/ou alta dimensionalidade (p > n)

Casagrande, Marcelo Henrique 29 April 2016 (has links)
Submitted by Bruna Rodrigues (bruna92rodrigues@yahoo.com.br) on 2016-10-06T11:48:12Z No. of bitstreams: 1 DissMHC.pdf: 1077783 bytes, checksum: c81f777131e6de8fb219b8c34c4337df (MD5) / Approved for entry into archive by Marina Freitas (marinapf@ufscar.br) on 2016-10-20T13:58:41Z (GMT) No. of bitstreams: 1 DissMHC.pdf: 1077783 bytes, checksum: c81f777131e6de8fb219b8c34c4337df (MD5) / Approved for entry into archive by Marina Freitas (marinapf@ufscar.br) on 2016-10-20T13:58:47Z (GMT) No. of bitstreams: 1 DissMHC.pdf: 1077783 bytes, checksum: c81f777131e6de8fb219b8c34c4337df (MD5) / Made available in DSpace on 2016-10-20T13:58:52Z (GMT). No. of bitstreams: 1 DissMHC.pdf: 1077783 bytes, checksum: c81f777131e6de8fb219b8c34c4337df (MD5) Previous issue date: 2016-04-29 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / This paper presents a comparative study of the predictive power of four suitable regression methods for situations in which data, arranged in the planning matrix, are very poorly multicolinearity and / or high dimensionality, wherein the number of covariates is greater the number of observations. In this study, the methods discussed are: principal component regression, partial least squares regression, ridge regression and LASSO. The work includes simulations, wherein the predictive power of each of the techniques is evaluated for di erent scenarios de ned by the number of covariates, sample size and quantity and intensity ratios (e ects) signi cant, highlighting the main di erences between the methods and allowing for the creating a guide for the user to choose which method to use based on some prior knowledge that it may have. An application on real data (not simulated) is also addressed. / Este trabalho apresenta um estudo comparativo do poder de predi c~ao de quatro m etodos de regress~ao adequados para situa c~oes nas quais os dados, dispostos na matriz de planejamento, apresentam s erios problemas de multicolinearidade e/ou de alta dimensionalidade, em que o n umero de covari aveis e maior do que o n umero de observa c~oes. No presente trabalho, os m etodos abordados s~ao: regress~ao por componentes principais, regress~ao por m nimos quadrados parciais, regress~ao ridge e LASSO. O trabalho engloba simula c~oes, em que o poder preditivo de cada uma das t ecnicas e avaliado para diferentes cen arios de nidos por n umero de covari aveis, tamanho de amostra e quantidade e intensidade de coe cientes (efeitos) signi cativos, destacando as principais diferen cas entre os m etodos e possibilitando a cria c~ao de um guia para que o usu ario possa escolher qual metodologia usar com base em algum conhecimento pr evio que o mesmo possa ter. Uma aplica c~ao em dados reais (n~ao simulados) tamb em e abordada
213

Avaliação da qualidade de águas pluviais armazenadas e estudos de tratabilidade empregando filtro de pressão com diferentes meios filtrantes visando ao aproveitamento para fins não potáveis

Nakada, Liane Yuri Kondo [UNESP] 20 August 2012 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:29:31Z (GMT). No. of bitstreams: 0 Previous issue date: 2012-08-20Bitstream added on 2014-06-13T19:38:37Z : No. of bitstreams: 1 nakada_lyk_me_bauru.pdf: 2147740 bytes, checksum: 0a4ee05972f9488a128466336dde5ede (MD5) / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP) / O presente trabalho foi desenvolvido em três etapas, cronologicamente: i) estudo da qualidade de águas pluviais coletadas por telhada por telhado cerâmico e armazenadas; ii) modificações em estado experimental em escala real de coleta e tratamento simplificado de águas pluviais, para possibilitar o estudo de três diferentes meios filtrantes; e iii) coletas, estudos de tratabilidade em escala de bancada e estudos do tratamento em escala real. Os resultados indicam que: i) as águas pluviais coletadas após escoamento sobre telhados cerâmicos necessitam de tratamento para assegurar o uso, mesmo que para atividades não potáveis, conforme recomendações da NBR 15527 (ABNT, 2007); cada precipitação possui aspectos qualitativos particulares, significativamente dependentes do período de estiagem antecedente à chuva, de modo que demandam ensaios de tratabilidade para cada evento: ii) a implantação de sistemas de coleta e tratamento/aproveitamento de águas pluviais em novos empreendimentos imobiliários é mais conveniente do que a inclusão desse sistemas como adaptação de sistemas de água já existentes; iii) para as águas pluviais estudadas, em nenhuma configuração de tratamento foi integralmente atendido o padrão de qualidade recomendado pela NBR 15527 (ABNT, 2007), entretanto, a estratégia de tratamento simplificado investigado pode produzir água com a qualidade recomendada / The present work was developed in three steps, in the following chronological order: i) study of the quality o stored roof-harvested rainwater; ii) modifications in the full-scale experimental plant for rainwater harvesting and simplified treating, to enable the study of three different media filter, iii) harvest of rainwater, treatability studies in bench scale and study of the full-scale treatment. The results indicate that: i) the ceramic roof-harvested rainwater require treatment to safeguard uses, even for non-drinkable purposes, according to recommendations of the current norm NBR 15527 (ABNT, 2007); each rain event presents specific qualitative aspects, significantly dependent on the dry days before the rain, hence, each harvested rainwater demands treatability studies; ii) the implementation of rainwater harvesting and treatment systems in new buildings is more convenient than the addition of those systems as adaptations of water systems from previolusly existing buildings. iii) for the studied rainwater, nome of the treatment configurations completely met the quality recommended by norm, through, the treatment strategy can produce water which meet the quality recommendations
214

Ajuste de modelos não lineares e estimativas de parâmetros genéticos para produção de ovos de uma linhagem de poedeiras White Leghorn /

Savegnago, Rodrigo Pelicioni. January 2010 (has links)
Resumo: Modelos não lineares são úteis para ajustar curvas de produção de ovos de aves, facilitando o estudo do desempenho dessa característica ao longo do tempo. As estimativas de parâmetros genéticos da produção de ovos e de outras características associadas auxiliam no processo de seleção. O objetivo do trabalho foi: (1) utilizar modelos não lineares para ajustar curvas de produção de ovos aos dados de uma população de aves selecionada para postura e uma controle e verificar as mudanças ocorridas entre estas curvas preditas em função do processo de seleção, por meio do ganho genético e pelas diferenças entre as estimativas dos parâmetros dos modelos; (2) estimar parâmetros genéticos para características relacionadas à postura de ovos da população selecionada, avaliar a associação genética entre estas e determinar quais as melhores características que podem ser utilizadas para melhorar a produção de ovos. Foram estudados os ajustes de 10 modelos não lineares aplicados aos registros da produção de ovos de 54 semanas de postura de 1693 aves de uma população selecionada para taxa de postura e 282 aves de uma população controle. Foi utilizado o PROC NLIN do SAS com o algoritmo de Gauss-Newton para efetuar os ajustes dos modelos. Os parâmetros genéticos, considerando 1289 aves da linhagem selecionada, foram estimados pelo método da máxima verossimilhança restrita, utilizando modelo animal que incluiu o efeito fixo de incubação e os efeitos aleatórios genético aditivo e residual. As características estudadas foram relação altura-largura e peso dos ovos às 32, 37 e 40 semanas de idade (REL32, REL37, REL40, PO32, PO37 e PO40, respectivamente), peso corporal às 54 e 62 semanas (PC54 e PC62), idade à maturidade sexual (IMS), taxa de postura nos períodos parciais de 17 a 30 e 17 a 40 semanas (P1730 e P1740), taxa de postura nos períodos residuais de ... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: Nonlinear models are useful to adjust egg production curves to study the performance of this trait over the time. Estimates of genetic parameters for egg production and other associated traits help in the selection process. The aim of this study were: (1) use nonlinear models to fit curves of egg production data from a population of birds selected for laying and its respective control and describe the changes between these predicted curves through the genetic gain and differences between the estimates of parameters, resulting by the selection process; (2) to estimate genetic parameters for traits related to egg-laying of the selected population to evaluate the genetic association between them and determine what traits can be used to improve the egg production. Ten non-linear models have been used to adjust the record of egg production of 1693 laying hens of the selected population and 282 hens of the control population in 54 weeks of egg production. The SAS PROC NLIN with the Gauss-Newton algorithm has been used to make the adjustments of the models. Genetic parameters for 1289 selected hens were estimated by restricted maximum likehood using an animal model that included fixed effects of incubation and random additive genetic and residual effects. The traits in this study were the relation between height-width of the egg and egg weight at 32, 37 and 40 weeks of age (HW32, HW37, HW40, EW32, EW37 and EW40, respectively), body weight at 54 and 62 weeks (BW54 and BW62), age at first egg (AFE), the egg production in 17 to 30 and 17 to 40 weeks (P1730 and P1740), in 30 to 70 and 40 to 70 weeks (P3070 and P4070) and the total egg production (TEP). Two multivariate analyses were made: a k-means clustering method to describe patterns of egg and poultry and principal components with the breeding values (BV). There were differences between the parameters of egg production curves in the selected ... (Complete abstract click electronic access below) / Orientador: Danísio Prado Munari / Coorientador: Mônica Corrêa Ledur / Banca: João Ademir de Oliveira / Banca: Lenira El Faro Zadra / Mestre
215

Classificador m?quina de suporte vetorial com an?lise de Fourier aplicada em dados de EEG e EMG

Carvalho, Jhonnata Bezerra de 03 February 2016 (has links)
Submitted by Automa??o e Estat?stica (sst@bczm.ufrn.br) on 2016-07-11T17:32:14Z No. of bitstreams: 1 JhonnataBezerraDeCarvalho_DISSERT.pdf: 3154941 bytes, checksum: aab207a1be81d327327698a3f8ff9a2d (MD5) / Approved for entry into archive by Arlan Eloi Leite Silva (eloihistoriador@yahoo.com.br) on 2016-07-15T21:46:07Z (GMT) No. of bitstreams: 1 JhonnataBezerraDeCarvalho_DISSERT.pdf: 3154941 bytes, checksum: aab207a1be81d327327698a3f8ff9a2d (MD5) / Made available in DSpace on 2016-07-15T21:46:07Z (GMT). No. of bitstreams: 1 JhonnataBezerraDeCarvalho_DISSERT.pdf: 3154941 bytes, checksum: aab207a1be81d327327698a3f8ff9a2d (MD5) Previous issue date: 2016-02-03 / Coordena??o de Aperfei?oamento de Pessoal de N?vel Superior (CAPES) / O classificador M?quina de Suporte Vetorial, que vem do termo em ingl?s \textit{Support Vector Machine}, ? utilizado em diversos problemas em v?rias ?reas do conhecimento. Basicamente o m?todo utilizado nesse classificador ? encontrar o hiperplano que maximiza a dist?ncia entre os grupos, para aumentar o poder de generaliza??o do classificador. Neste trabalho, s?o tratados alguns problemas de classifica??o bin?ria com dados obtidos atrav?s da eletroencefalografia (EEG) e eletromiografia (EMG), utilizando a M?quina de Suporte Vetorial com algumas t?cnicas complementares, destacadas a seguir como: An?lise de Componentes Principais para a identifica??o de regi?es ativas do c?rebro, o m?todo do periodograma que ? obtido atrav?s da An?lise de Fourier, para ajudar a discriminar os grupos e a suaviza??o por M?dias M?veis Simples para a redu??o dos ru?dos existentes nos dados. Foram desenvolvidas duas fun??es no $software$ \textbf{R}, para a realiza??o das tarefas de treinamento e classifica??o. Al?m disso, foram propostos 2 sistemas de pesos e uma medida sumarizadora para auxiliar na decis?o do grupo pertencente. A aplica??o dessas t?cnicas, pesos e a medida sumarizadora no classificador, mostraram resultados bastantes satisfat?rios, em que os melhores resultados encontrados foram, uma taxa m?dia de acerto de 95,31\% para dados de est?mulos visuais, 100\% de classifica??o correta para dados de epilepsia e taxas de acerto de 91,22\% e 96,89\% para dados de movimentos de objetos para dois indiv?duos. / The classifier support vector machine is used in several problems in various areas of knowledge. Basically the method used in this classier is to end the hyperplane that maximizes the distance between the groups, to increase the generalization of the classifier. In this work, we treated some problems of binary classification of data obtained by electroencephalography (EEG) and electromyography (EMG) using Support Vector Machine with some complementary techniques, such as: Principal Component Analysis to identify the active regions of the brain, the periodogram method which is obtained by Fourier analysis to help discriminate between groups and Simple Moving Average to eliminate some of the existing noise in the data. It was developed two functions in the software R, for the realization of training tasks and classification. Also, it was proposed two weights systems and a summarized measure to help on deciding in classification of groups. The application of these techniques, weights and the summarized measure in the classier, showed quite satisfactory results, where the best results were an average rate of 95.31% to visual stimuli data, 100% of correct classification for epilepsy data and rates of 91.22% and 96.89% to object motion data for two subjects.
216

Sistema H?brido de Infer?ncia Baseado em An?lise de Componentes Principais e Redes Neurais Artificiais Aplicado a Plantas de Processamento de G?s Natural

Linhares, Leandro Luttiane da Silva 19 March 2010 (has links)
Made available in DSpace on 2014-12-17T14:55:42Z (GMT). No. of bitstreams: 1 LeandroLSL_DISSERT.pdf: 1890433 bytes, checksum: 540cbd4cf39fb3515249b7cecd6d0dcc (MD5) Previous issue date: 2010-03-19 / Conselho Nacional de Desenvolvimento Cient?fico e Tecnol?gico / Nowadays, where the market competition requires products with better quality and a constant search for cost savings and a better use of raw materials, the research for more efficient control strategies becomes vital. In Natural Gas Processin Units (NGPUs), as in the most chemical processes, the quality control is accomplished through their products composition. However, the chemical composition analysis has a long measurement time, even when performed by instruments such as gas chromatographs. This fact hinders the development of control strategies to provide a better process yield. The natural gas processing is one of the most important activities in the petroleum industry. The main economic product of a NGPU is the liquefied petroleum gas (LPG). The LPG is ideally composed by propane and butane, however, in practice, its composition has some contaminants, such as ethane and pentane. In this work is proposed an inferential system using neural networks to estimate the ethane and pentane mole fractions in LPG and the propane mole fraction in residual gas. The goal is to provide the values of these estimated variables in every minute using a single multilayer neural network, making it possibly to apply inferential control techniques in order to monitor the LPG quality and to reduce the propane loss in the process. To develop this work a NGPU was simulated in HYSYS R software, composed by two distillation collumns: deethanizer and debutanizer. The inference is performed through the process variables of the PID controllers present in the instrumentation of these columns. To reduce the complexity of the inferential neural network is used the statistical technique of principal component analysis to decrease the number of network inputs, thus forming a hybrid inferential system. It is also proposed in this work a simple strategy to correct the inferential system in real-time, based on measurements of the chromatographs which may exist in process under study / Nos dias atuais, em que a concorr?ncia de mercado exige produtos de melhor qualidade e a busca constante pela redu??o de custos e pelo melhor aproveitamento das mat?rias-primas, a utiliza??o de estrat?gias de controle mais eficientes torna-se fundamental. Nas Unidades de Processamento de G?s Natural (UPGNs), assim como na maioria dos processos qu?micos, o controle de qualidade ? realizado a partir da composi??o de seus produtos. Entretanto, a an?lise de composi??es qu?micas, mesmo quando realizada por equipamentos como os cromat?grafos a g?s, apresenta longos intervalos de medi??o. Esse fato dificulta a elabora??o de estrat?gias de controle que proporcionem um melhor rendimento do processo. Geralmente, o principal produto econ?mico de uma UPGN ? o GLP (G?s Liquefeito de Petr?leo). Outros produtos comumente obtidos nessas unidades s?o a gasolina natural e o g?s residual. O GLP ? formado idealmente por propano e butano. Entretanto, na pr?tica, apresenta em sua composi??o contaminantes, tais como o etano e o pentano. Neste trabalho ? proposto um sistema de infer?ncia utilizando redes neurais para estimar as fra??es molares de etano e pentano no GLP e a fra??o molar de propano no g?s residual. O objetivo ? estimar essas vari?veis a cada minuto com uma ?nica rede neural de m?ltiplas camadas, permitindo a aplica??o de t?cnicas de controle inferencial visando a controlar a qualidade do GLP e reduzir a perda de propano no processo. No desenvolvimento deste trabalho, ? simulada no software HYSYS R uma UPGN formada por uma coluna de destila??o deetanizadora e outra debutanizadora. A infer?ncia ? realizada a partir das vari?veis de processo de alguns controladores PID presentes na instrumenta??o das colunas citadas. Com o intuito de reduzir a complexidade da rede neural de infer?ncia, ? utilizada a t?cnica estat?stica de an?lise de componentes principais (ACP) para diminuir o n?mero de entradas da rede. Tem-se, portanto, um sistema h?brido de infer?ncia. Tamb?m ? proposta neste trabalho, uma estrat?gia simples para a corre??o em tempo real do sistema de infer?ncia, tendo como base as medi??es dos poss?veis cromat?grafos de linha presentes no processo em estudo
217

Compress?o auto-adaptativa de imagens coloridas

Souza, Gustavo Fontoura de 21 January 2005 (has links)
Made available in DSpace on 2014-12-17T14:56:05Z (GMT). No. of bitstreams: 1 GustavoFS.pdf: 1361196 bytes, checksum: fe1a67dcdb84a334e6c49247c8c68a06 (MD5) Previous issue date: 2005-01-21 / Image compress consists in represent by small amount of data, without loss a visual quality. Data compression is important when large images are used, for example satellite image. Full color digital images typically use 24 bits to specify the color of each pixel of the Images with 8 bits for each of the primary components, red, green and blue (RGB). Compress an image with three or more bands (multispectral) is fundamental to reduce the transmission time, process time and record time. Because many applications need images, that compression image data is important: medical image, satellite image, sensor etc. In this work a new compression color images method is proposed. This method is based in measure of information of each band. This technique is called by Self-Adaptive Compression (S.A.C.) and each band of image is compressed with a different threshold, for preserve information with better result. SAC do a large compression in large redundancy bands, that is, lower information and soft compression to bands with bigger amount of information. Two image transforms are used in this technique: Discrete Cosine Transform (DCT) and Principal Component Analysis (PCA). Primary step is convert data to new bands without relationship, with PCA. Later Apply DCT in each band. Data Loss is doing when a threshold discarding any coefficients. This threshold is calculated with two elements: PCA result and a parameter user. Parameters user define a compression tax. The system produce three different thresholds, one to each band of image, that is proportional of amount information. For image reconstruction is realized DCT and PCA inverse. SAC was compared with JPEG (Joint Photographic Experts Group) standard and YIQ compression and better results are obtain, in MSE (Mean Square Root). Tests shown that SAC has better quality in hard compressions. With two advantages: (a) like is adaptive is sensible to image type, that is, presents good results to divers images kinds (synthetic, landscapes, people etc., and, (b) it need only one parameters user, that is, just letter human intervention is required / Comprimir uma imagem consiste, basicamente, em represent?-la atrav?s de uma menor quantidade de dados, sem para tanto comprometer a qualidade da imagem. A grande import?ncia da compress?o de dados fica evidente quando se utiliza quantidade muito grande de informa??es e espa?os pequenos para armazenamento. Com esse objetivo ? que se apresenta esse trabalho no qual desenvolveu-se um m?todo para a compress?o de imagens coloridas e multiespectrais baseado na quantidade de informa??o contida em cada banda ou planos da imagem. Este m?todo foi chamado de Compress?o Auto-Adaptativa (C.A.A.), no qual cada banda da imagem ? comprimida com uma taxa de compress?o diferente, buscando um melhor resultado de forma a manter a maior parte da informa??o. A t?cnica baseia-se na compress?o com maior taxa para a banda com maior redund?ncia, ou seja, menor quantidade de informa??o e com taxas mais amenas ?s bandas com informa??o mais significativa. O CAA utiliza duas transformadas de imagens como elementos ativos da compress?o. A Transformada Cosseno Discreta (DCT) e a An?lise de Componentes Principais (PCA). A Imagem original (sem compress?o) ? processada pelo sistema CAA no espa?o RGB, sob o qual ? aplicado a transformada PCA, que leva a imagem para um novo espa?o (ou planos de dados), no qual as informa??es est?o descorrelacionadas. Neste espa?o gerado pela PCA, realiza-se a DCT em cada um dos planos individualmente, e, atrav?s de um limiar calculado em fun??o do resultado da PCA e de um par?metro de compress?o fornecido pelo usu?rio, ? que alguns elementos da matriz gerada pela DCT s?o descartados. Por fim realiza-se, respectivamente, a DCT e PCA inversas, reconstruindo assim uma aproxima??o da imagem. Quando comparada com a compress?o realizada pela tradicional JPEG (Joint Photographic Experts Group), a CAA apresenta, em m?dia, resultados cerca de 10 % melhores no que diz respeito a MSE (Mean Square Root), com duas grandes vantagens, por ser adaptativa, ? sens?vel ao tipo de imagem, ou seja, apresenta bons resultados em diversos tipos de imagens (sint?tica, paisagens, pessoas, e etc.), e, necessita apenas um par?metro de compress?o determinado pelo usu?rio
218

Reconhecimento de padrão na biodisponibilidade do ferro utilizando o Algoritmo Fuzzy C-Means / Pattern recognition in iron bioavailability using Fuzzy C-Means algorithm

Márcio Coutinho Brandão Côrtes Filho 15 August 2012 (has links)
Fundação de Amparo à Pesquisa do Estado do Rio de Janeiro / Este trabalho apresenta um método para reconhecimento do padrão na biodisponibilidade do ferro, através da interação com substâncias que auxiliam a absorção como vitamina C e vitamina A e nutrientes inibidores como cálcio, fitato, oxalato, tanino e cafeína. Os dados foram obtidos através de inquérito alimentar, almoço e jantar, em crianças de 2 a 5 anos da única Creche Municipal de Paraty-RJ entre 2007 e 2008. A Análise de Componentes Principais (ACP) foi aplicada na seleção dos nutrientes e utilizou-se o Algoritmo Fuzzy C-Means (FCM) para criar os agrupamentos classificados de acordo com a biodisponibilidade do ferro. Uma análise de sensibilidade foi desenvolvida na tentativa de buscar quantidades limítrofes de cálcio a serem consumidas nas refeições. A ACP mostrou que no almoço os nutrientes que explicavam melhor a variabilidade do modelo foram ferro, vitamina C, fitato e oxalato, enquanto no jantar o cálcio se mostrou eficaz na determinação da variabilidade do modelo devido ao elevado consumo de leite e derivados. Para o almoço, a aplicação do FCM na interação dos nutrientes, notou-se que a ingestão de vitamina C foi determinante na classificação dos grupos. No jantar, a classificação de grupos foi determinada pela quantidade de ferro heme na interação com o cálcio. Na análise de sensibilidade realizada no almoço e no jantar, duas iterações do algoritmo determinaram a interferência total do cálcio na biodisponibilidade do ferro. / This dissertation presents a method for pattern recognition on the bioavailability of iron, through interaction with substances that help the absorption such as vitamin C and vitamin A and inhibitors as calcium, phytate, oxalate, tannin and caffeine. The database was obtained through dietary, lunch and dinner, in children 2-5 years in the Municipal Nursery of Paraty - Rio de Janeiro, between 2007 and 2008. The Principal Component Analysis (PCA) was applied in the selection of nutrients and used the Fuzzy C-Means Algorithm (FCM) to create the groups classified according to the bioavailability of iron. A sensitivity analysis was developed in an attempt to find neighboring amounts of calcium being consumed at meals. The PCA showed that at lunch the nutrients that best explained the variability of the model were iron, vitamin C, phytate and oxalate, while at dinner the calcium was effective in determining the variability of the model due to high consumption of dairy products. For lunch, the application of FCM in the interaction of nutrients, it was noted that the intake of vitamin C was decisive in the classification of groups. At dinner, the classification of groups was determined by the amount of iron in the interaction with calcium. In the sensitivity analysis performed for lunch and dinner, two iterations of the algorithm determined the total interference of calcium on iron bioavailability.
219

Controle coerente das bandas de emissão do ZnO através de algoritmo genético / Coherent control of the emission bands of ZnO using genetic algorithms

Renato Juliano Martins 14 February 2012 (has links)
Neste trabalho, investigamos o controle coerente das bandas de emissão, excitadas via absorção multifotônica, em um cristal de óxido de Zinco (ZnO) através das formatação de pulsos laser ultracurtos (790 nm, 30 fs, 80 MHz e 5 nJ). O ZnO vem se mostrado um possível candidato a dispositivos fotônicos devido a sua grande energia de ligação de éxciton (60 meV).Inicialmente, implementamos a montagem experimental do sistema de formatação de pulsos, bem como de excitação e coleta da fluorescência do ZnO. O controle coerente foi feito através de um programa baseado em um algoritmo genético (GA), também desenvolvido no transcorrer deste trabalho. Através do algoritmo genético, observamos um ganho significativo da emissão do ZnO por meio de fases espectrais impostas ao pulso laser. Monitorando o traço de autocorrelação do pulso, inferimos que este se torna mais longo após a otimização das bandas de emissão via GA. Além disso, verificamos que as funções de fase que otimizam o processo são complexas e oscilatórias. Através da análise das componentes principais (PCA), fizemos uma análise do conjunto de dados providos pelo GA, onde observamos que este método pode ser usado como um filtro para os dados, suavizando as curvas e enfatizando os aspectos mais importantes das máscaras de fase obtidas pelo controle coerente. Por fim investigamos qual a importância das máscaras suavizadas para o entendimento físico do processo. / In this work, we investigate the coherent control of the emission bands, excited via multiphoton absorption, in a zinc oxide crystal (ZnO) by pulse shaping ultrashort laser pulses (790 nm, 30 fs, 5 nJ and 80 MHz). ZnO has been preposed as a potential material for photonic devices due to its strong exciton binding energy(60 meV). Initially, we have implemented the pulse shaper experimental setup, as well as the fluorescence measurements of ZnO. The coherent control was carried out through genetic algorithm (GA) based software, also developed in the course of this work. Using the genetic algorithm, we have observed a significant increase in the ZnO emission when appropriated spectral phase masks are applied to the laser pulse. Autocorrelation measurements were used to infer the pulse duration, which get longer after optimization of the emission band via GA. Additionally, we have found that the phase masks that optimize the process are complex oscillatory functions. Through the Principal Component Analysis, we analyzed the data provided by the GA and observed that it can be used to filter the data, smoothing the curves and highlighting the most important aspects of phase masks obtained by the coherent control. Finally we investigate how important the smoothed masks are for the physical understanding of the process.
220

Emprego de estatística multivariada no estudo quimiossistemática da família Asteraceae e da sua tribo Heliantheae / Use of Multivariate Statistics in the Chemosystematics of Asteraceae family and its Heliantheae tribe

Harold Hilarion Fokoue 18 March 2010 (has links)
Este trabalho análise as ocorrências de 12 classes de substâncias (monoterpenos, sesquiterpenos, lactonas sesquiterpênicas, diterpenos, triterpenos, cumarinas, flavonóides, poliacetilenos, benzofuranos, benzopiranos, acetofenonas e fenilpropanóides) na família Asteraceae e na sua tribo Heliantheae. Pretende-se demonstrar a existência de correlações na produção de metabólitos secundários em níveis taxonômicos baixos (tribos, subtribos e gêneros). Utilizou-se um banco de dados com cerca de 36.000 ocorrências das principais substâncias isoladas em plantas da família. O estudo do equilíbrio químico na produção de metabólitos secundários foi feito utilizando-se Regressão Linear Múltipla. As afinidades entre os grupos com base na sua Química foram pesquisadas por vários métodos tais como: Análise de componentes principais, Análise de Cluster e Análises cladísticas. Observou-se também o grau de oxidação médio de vários metabólitos e sua utilidade como ferramenta em análises quimiotaxonômicas. Foi possível mostrar a existência de um equilíbrio na produção das 12 classes de metabólitos em níveis das tribos e subtribos. Mas, no nível dos gêneros um equilíbrio moderado foi encontrado. Também foi possível mostrar a existência de um equilíbrio oxidativo em vários níveis (tribos, subtribos). No nível dos gêneros nenhum equilíbrio foi encontrado utilizando-se o parâmetro passo oxidativo. Foi possível agrupar algumas das subfamílias de Asteraceae segundo Bremer e subtribos da tribo Heliantheae segundo Stuessy usando Análises de componentes principais e Análise de Cluster / This work analyse the occurrence of 12 classes of substances (monoterpenes, sesquiterpenes, sesquiterpene lactones, diterpenes, triterpenes, coumarins, flavonoids, polyacetylenes, Benzofurans, benzopyrans, acetophenones and phenylpropanoids) in the Asteraceae family and its Heliantheae tribe. This study intends to demonstrate the existence of correlations in the production of secondary metabolites in lower taxonomic levels (tribes, subtribes and genera). We used a database of about 36,000 occurrences of the main substances isolated from the plant family. The study of chemical equilibrium in the production of secondary metabolites was done using Multiple Linear Regression. The affinities between the groups based on their chemistry were investigated by various methods such as principal component analysis, Cluster and cladistic analysis. There was also the average degree of oxidation of various metabolites and their usefulness as a tool in chemotaxonomic analysis. It was possible to show the existence of a balance in the production of 12 classes of metabolites in the levels of the tribes and subtribes. But the level of the genus balance was found moderate. It was also possible to show the existence of an oxidative equilibrium in various levels (tribes, subtribes). The level of genus balance was not found using the parameter oxidation step. We could group some of the subfamilies of Asteraceae according to Bremer and the subtribes of Heliantheae according to Stuessy using the principal component analysis and Cluster Analysis

Page generated in 0.1176 seconds