• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 186
  • 56
  • 24
  • 9
  • 9
  • 4
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • Tagged with
  • 378
  • 228
  • 86
  • 72
  • 68
  • 65
  • 47
  • 46
  • 46
  • 40
  • 37
  • 37
  • 35
  • 34
  • 30
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Átomos hidrogenoides em espaços com dimensionalidade D6=3: os casos não relativístico e relativístico / Hydrogenic atoms in space with dimensionality D6=3 : cases non-relativistic and relativistic

Jordan Martins 16 December 2014 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / A possibilidade da existência de átomos de hidrogênio estáveis em dimensões superiores a três é abordada. O problema da dimensionalidade é visto como um problema de Física, no qual relacionam-se algumas leis físicas com a dimensão espacial. A base da análise deste trabalho faz uso das equações de Schrödinger (não relativística) e de Dirac (relativística). Nos dois casos, utiliza-se a generalização tanto do setor cinemático bem como o setor de interação coulombiana para variar o parâmetro topológico dimensão. Para o caso não relativístico, os auto-valores de energia e as auto-funções são obtidas através do método numérico de Numerov. Embora existam soluções em espaços com dimensões superiores, os resultados obtidos no presente trabalho indicam que a natureza deve, de alguma maneira, se manifestar em um espaço tridimensional. / The question of whether hydrogen atoms can exist or not in at spaces with a number of dimensions D greater than 3 is revisited. The dimensionality problem is taken as physical one, which physics laws are related to the space dimension. The main framework of the analysis through out this tesis are the Schrödinger Equation (non relativistic) and the Dirac Equation (relativistic). Both cases use the kinematic and Coulombian interaction sectors generalized in order to vary the topological paramenter dimension. For the non relativistic case, eigenvalues of energy and eigenfunctions are evaluated using the Numerov numerical method. Although there are solutions in higher dimensions, the results obtained in this tesis indicate that nature should somehow prefer a tridimensional space.
112

Sobre a influência da dimensionalidade do espaço no átomo de hidrogênio relativístico / On the influence of the space dimensionality in the relativistic hydrogen aton

Lineu Dias Perlingeiro 31 January 2011 (has links)
Faz-se uma revisão do problema da dimensionalidade do espaço entendido como um problema de Física, enfatizando que algumas leis físicas dependem fortemente deste parâmetro topológico do espaço. Discute-se o que já foi feito tanto no caso da equação de Schrödinger quanto na de Dirac. A situação na literatura é bastante controversa e, no caso específico da equação de Dirac em D dimensões, não se encontra nenhum trabalho na literatura científica que leve em conta o potencial de intera coulombiana corretamente generalizado quando o número de dimensões espaciais é maior do que três. Discute-se, portanto, o átomo de hidrogênio relativístico em D dimensões. Novos resultados numéricos para os níveis de energia e para as funções de onda são apresentados e discutidos. Em particular, considera-se a possibilidade de existência de átomos estáveis em espaços com dimensionalidade 6= 3.
113

Evaluating immersive approaches to multidimensional information visualization / Avaliando abordagens imersivas para visualização de informações multidimensionais

Wagner Filho, Jorge Alberto January 2018 (has links)
O uso de novos recursos de display e interação para suportar a visualização imersiva de dados e incrementar o raciocínio analítico é uma tendência de pesquisa em Visualização de Informações. Neste trabalho, avaliamos o uso de ambientes baseados em HMD para a exploração de dados multidimensionais, representados em scatterplots 3D como resultado de redução de dimensionalidade. Nós apresentamos uma nova modelagem para o problema de avaliação neste contexto, levando em conta os dois fatores cuja interação determina o impacto no desempenho total nas tarefas: a diferença nos erros introduzidos ao se realizar redução de dimensionalidade para 2D ou 3D, e a diferença nos erros de percepção humana sob diferentes condições de visualização. Este framework em duas etapas oferece uma abordagem simples para estimar os benefícios de se utilizar um setup 3D imersivo para um dado conjunto de dados. Como caso de uso, os erros de redução de dimensionalidade para uma série de conjuntos de dados de votações na Câmara dos Deputados, ao se utilizar duas ou três dimensões, são avaliados por meio de uma abordagem empírica baseada em tarefas. O erro de percepção e o desempenho geral de tarefa, por sua vez, são avaliados através de estudos controlados comparativos com usuários. Comparando-se visualizações baseadas em desktop (2D e 3D) e em HMD (3D), resultados iniciais indicaram que os erros de percepção foram baixos e similares em todas abordagens, resultando em benefícios para o desempenho geral em ambas técnicas 3D A condição imersiva, no entanto, demonstrou requerer menor esforço para encontrar as informações e menos navegação, além de prover percepções subjetivas de precisão e engajamento muito maiores. Todavia, o uso de navegação por voo livre resultou em tempos ineficientes e frequente desconforto nos usuários. Em um segundo momento, implementamos e avaliamos uma abordagem alternativa de exploração de dados, onde o usuário permanece sentado e mudanças no ponto de vista só são possíveis por meio de movimentos físicos. Toda a manipulação é realizada diretamente por gestos aéreos naturais, com os dados sendo renderizados ao alcance dos braços. A reprodução virtual de uma cópia exata da mesa de trabalho do analista visa aumentar a imersão e possibilitar a interação tangível com controles e informações bidimensionais associadas. Um segundo estudo com usuários foi conduzido em comparação a uma versão equivalente baseada em desktop, explorando um conjunto de 9 tarefas representativas de percepção e interação, baseadas em literatura prévia. Nós demonstramos que o nosso protótipo, chamado VirtualDesk, apresentou resultados excelentes em relação a conforto e imersão, e desempenho equivalente ou superior em todas tarefas analíticas, enquanto adicionando pouco ou nenhum tempo extra e ampliando a exploração dos dados. / The use of novel displays and interaction resources to support immersive data visualization and improve the analytical reasoning is a research trend in Information Visualization. In this work, we evaluate the use of HMD-based environments for the exploration of multidimensional data, represented in 3D scatterplots as a result of dimensionality reduction. We present a new modelling for the evaluation problem in such a context, accounting for the two factors whose interplay determine the impact on the overall task performance: the difference in errors introduced by performing dimensionality reduction to 2D or 3D, and the difference in human perception errors under different visualization conditions. This two-step framework offers a simple approach to estimate the benefits of using an immersive 3D setup for a particular dataset. As use case, the dimensionality reduction errors for a series of roll calls datasets when using two or three dimensions are evaluated through an empirical task-based approach. The perception error and overall task performance are assessed through controlled comparative user studies. When comparing desktop-based (2D and 3D) with an HMD-based (3D) visualization, initial results indicated that perception errors were low and similar in all approaches, resulting in overall performance benefits in both 3D techniques. The immersive condition, however, was found to require less effort to find information and less navigation, besides providing much larger subjective perception of accuracy and engagement. Nonetheless, the use of flying navigation resulted in inefficient times and frequent user discomfort In a second moment, we implemented and evaluated an alternative data exploration approach where the user remains seated and viewpoint change is only realisable through physical movements. All manipulation is done directly by natural mid-air gestures, with the data being rendered at arm’s reach. The virtual reproduction of an exact copy of the analyst’s desk aims to increase immersion and enable tangible interaction with controls and two dimensional associated information. A second user study was carried out comparing this scenario to a desktop-based equivalent, exploring a set of 9 representative perception and interaction tasks based on previous literature. We demonstrate that our prototype setup, named VirtualDesk, presents excellent results regarding user comfort and immersion, and performs equally or better in all analytical tasks, while adding minimal or no time overhead and amplifying data exploration.
114

Redução de dimensionalidade aplicada à diarização de locutor / Dimensionality reduction applied to speaker diarization

Silva, Sérgio Montazzolli January 2013 (has links)
Atualmente existe uma grande quantidade de dados multimídia sendo geradas todos os dias. Estes dados são oriundos de diversas fontes, como transmissões de rádio ou televisão, gravações de palestras, encontros, conversas telefônicas, vídeos e fotos capturados por celular, entre outros. Com isto, nos últimos anos o interesse pela transcrição de dados multimídia tem crescido, onde, no processamento de voz, podemos destacar as áreas de Reconhecimento de Locutor, Reconhecimento de Fala, Diarização de Locutor e Rastreamento de Locutores. O desenvolvimento destas áreas vem sendo impulsionado e direcionado pelo NIST, que periodicamente realiza avaliações sobre o estado-da-arte. Desde 2000, a tarefa de Diarização de Locutor tem se destacado como uma das principáis frentes de pesquisa em transcrição de dados de voz, tendo sido avaliada pelo NIST por diversas vezes na última década. O objetivo desta tarefa é encontrar o número de locutores presentes em um áudio, e rotular seus respectivos trechos de fala, sem que nenhuma informação tenha sido previamente fornecida. Em outras palavras, costuma-se dizer que o objetivo é responder a questão "Quem falou e quando?". Um dos grandes problemas nesta área é se conseguir obter um bom modelo para cada locutor presente no áudio, dada a pouca quantidade de informações e a alta dimensionalidade dos dados. Neste trabalho, além da criação de um Sistema de Diarização de Locutor, iremos tratar este problema mediante à redução de dimensionalidade através de análises estatísticas. Usaremos a Análise de Componentes Principáis, a Análise de Discriminantes Lineares e a recém apresentada Análise de Semi-Discriminantes Lineares. Esta última utiliza um método de inicialização estático, iremos propor o uso de um método dinâmico, através da detecção de pontos de troca de locutor. Também investigaremos o comportamento destas análises sob o uso simultâneo de múltiplas parametrizações de curto prazo do sinal acústico. Os resultados obtidos mostram que é possível preservar - ou até melhorar - o desempenho do sistema, mesmo reduzindo substâncialmente o número de dimensões. Isto torna mais rápida a execução de algoritmos de Aprendizagem de Máquina e reduz a quantidade de memória necessária para armezenar os dados. / Currently, there is a large amount of multimedia data being generated everyday. These data come from various sources, such as radio or television, recordings of lectures and meetings, telephone conversations, videos and photos captured by mobile phone, among others. Because of this, interest in automatic multimedia data transcription has grown in recent years, where, for voice processing, we can highlight the areas of Speaker Recognition, Speech Recognition, Speaker Diarization and Speaker Tracking. The development of such areas is being conducted by NIST, which periodically promotes state-of-the-art evaluations. Since 2000, the task of Speaker Diarization has emerged as one of the main research fields in voice data transcription, having been evaluated by NIST several times in the last decade. The objective of this task is to find the number of speakers in an audio recording, and properly label their speech segments without the use of any training information. In other words , it is said that the goal of Speaker Diarization is to answer the question "Who spoke when?". A major problem in this area is to obtain a good speaker model from the audio, given the limited amount of information available and the high dimensionality of the data. In the current work, we will describe how our Speaker Diarization System was built, and we will address the problem mentioned by lowering the dimensionality of the data through statistical analysis. We will use the Principal Component Analysis, the Linear Discriminant Analysis and the newly presented Fisher Linear Semi-Discriminant Analysis. The latter uses a static method for initialization, and here we propose the use of a dynamic method by the use of a speaker change points detection algorithm. We also investigate the behavior of these data analysis techniques under the simultaneous use of multiple short term features. Our results show that it is possible to maintain - and even improve - the system performance, by substantially reducing the number of dimensions. As a consequence, the execution of Machine Learning algorithms is accelerated while reducing the amount of memory required to store the data.
115

A Comparison of DIMTEST and Generalized Dimensionality Discrepancy Approaches to Assessing Dimensionality in Item Response Theory

January 2013 (has links)
abstract: Dimensionality assessment is an important component of evaluating item response data. Existing approaches to evaluating common assumptions of unidimensionality, such as DIMTEST (Nandakumar & Stout, 1993; Stout, 1987; Stout, Froelich, & Gao, 2001), have been shown to work well under large-scale assessment conditions (e.g., large sample sizes and item pools; see e.g., Froelich & Habing, 2007). It remains to be seen how such procedures perform in the context of small-scale assessments characterized by relatively small sample sizes and/or short tests. The fact that some procedures come with minimum allowable values for characteristics of the data, such as the number of items, may even render them unusable for some small-scale assessments. Other measures designed to assess dimensionality do not come with such limitations and, as such, may perform better under conditions that do not lend themselves to evaluation via statistics that rely on asymptotic theory. The current work aimed to evaluate the performance of one such metric, the standardized generalized dimensionality discrepancy measure (SGDDM; Levy & Svetina, 2011; Levy, Xu, Yel, & Svetina, 2012), under both large- and small-scale testing conditions. A Monte Carlo study was conducted to compare the performance of DIMTEST and the SGDDM statistic in terms of evaluating assumptions of unidimensionality in item response data under a variety of conditions, with an emphasis on the examination of these procedures in small-scale assessments. Similar to previous research, increases in either test length or sample size resulted in increased power. The DIMTEST procedure appeared to be a conservative test of the null hypothesis of unidimensionality. The SGDDM statistic exhibited rejection rates near the nominal rate of .05 under unidimensional conditions, though the reliability of these results may have been less than optimal due to high sampling variability resulting from a relatively limited number of replications. Power values were at or near 1.0 for many of the multidimensional conditions. It was only when the sample size was reduced to N = 100 that the two approaches diverged in performance. Results suggested that both procedures may be appropriate for sample sizes as low as N = 250 and tests as short as J = 12 (SGDDM) or J = 19 (DIMTEST). When used as a diagnostic tool, SGDDM may be appropriate with as few as N = 100 cases combined with J = 12 items. The study was somewhat limited in that it did not include any complex factorial designs, nor were the strength of item discrimination parameters or correlation between factors manipulated. It is recommended that further research be conducted with the inclusion of these factors, as well as an increase in the number of replications when using the SGDDM procedure. / Dissertation/Thesis / M.A. Educational Psychology 2013
116

Um modelo neural de aprimoramento progressivo para redução de dimensionalidade / A Progressive Enhancement Neural Model for dimensionality reduction

Camargo, Sandro da Silva January 2010 (has links)
Nas últimas décadas, avanços em tecnologias de geração, coleta e armazenamento de dados têm contribuído para aumentar o tamanho dos bancos de dados nas diversas áreas de conhecimento humano. Este aumento verifica-se não somente em relação à quantidade de amostras de dados, mas principalmente em relação à quantidade de características descrevendo cada amostra. A adição de características causa acréscimo de dimensões no espaço matemático, conduzindo ao crescimento exponencial do hipervolume dos dados, problema denominado “maldição da dimensionalidade”. A maldição da dimensionalidade tem sido um problema rotineiro para cientistas que, a fim de compreender e explicar determinados fenômenos, têm se deparado com a necessidade de encontrar estruturas significativas ocultas, de baixa dimensão, dentro de dados de alta dimensão. Este processo denomina-se redução de dimensionalidade dos dados (RDD). Do ponto de vista computacional, a conseqüência natural da RDD é uma diminuição do espaço de busca de hipóteses, melhorando o desempenho e simplificando os resultados da modelagem de conhecimento em sistemas autônomos de aprendizado. Dentre as técnicas utilizadas atualmente em sistemas autônomos de aprendizado, as redes neurais artificiais (RNAs) têm se tornado particularmente atrativas para modelagem de sistemas complexos, principalmente quando a modelagem é difícil ou quando a dinâmica do sistema não permite o controle on-line. Apesar de serem uma poderosa técnica, as RNAs têm seu desempenho afetado pela maldição da dimensionalidade. Quando a dimensão do espaço de entradas é alta, as RNAs podem utilizar boa parte de seus recursos para representar porções irrelevantes do espaço de busca, dificultando o aprendizado. Embora as RNAs, assim como outras técnicas de aprendizado de máquina, consigam identificar características mais informativas para um processo de modelagem, a utilização de técnicas de RDD frequentemente melhora os resultados do processo de aprendizado. Este trabalho propõe um wrapper que implementa um modelo neural de aprimoramento progressivo para RDD em sistemas autônomos de aprendizado supervisionado visando otimizar o processo de modelagem. Para validar o modelo neural de aprimoramento progressivo, foram realizados experimentos com bancos de dados privados e de repositórios públicos de diferentes domínios de conhecimento. A capacidade de generalização dos modelos criados é avaliada por meio de técnicas de validação cruzada. Os resultados obtidos demonstram que o modelo neural de aprimoramento progressivo consegue identificar características mais informativas, permitindo a RDD, e tornando possível criar modelos mais simples e mais precisos. A implementação da abordagem e os experimentos foram realizados no ambiente Matlab, utilizando o toolbox de RNAs. / In recent decades, advances on data generation, collection and storing technologies have contributed to increase databases size in different knowledge areas. This increase is seen not only regarding samples amount, but mainly regarding dimensionality, i.e. the amount of features describing each sample. Features adding causes dimension increasing in mathematical space, leading to an exponential growth of data hypervolume. This problem is called “the curse of dimensionality”. The curse of dimensionality has been a routine problem for scientists, that in order to understand and explain some phenomena, have faced with the demand to find meaningful low dimensional structures hidden in high dimensional search spaces. This process is called data dimensionality reduction (DDR). From computational viewpoint, DDR natural consequence is a reduction of hypothesis search space, improving performance and simplifying the knowledge modeling results in autonomous learning systems. Among currently used techniques in autonomous learning systems, artificial neural networks (ANNs) have becoming particularly attractive to model complex systems, when modeling is hard or when system dynamics does not allow on-line control. Despite ANN being a powerful tool, their performance is affected by the curse of dimensionality. When input space dimension is high, ANNs can use a significant part of their resources to represent irrelevant parts of input space making learning process harder. Although ANNs, and other machine learning techniques, can identify more informative features for a modeling process, DDR techniques often improve learning results. This thesis proposes a wrapper which implements a Progressive Enhancement Neural Model to DDR in supervised autonomous learning systems in order to optimize the modeling process. To validate the proposed approach, experiments were performed with private and public databases, from different knowledge domains. The generalization ability of developed models is evaluated by means of cross validation techniques. Obtained results demonstrate that the proposed approach can identify more informative features, allowing DDR, and becoming possible to create simpler and more accurate models. The implementation of the proposed approach and related experiments were performed in Matlab Environment, using ANNs toolbox.
117

Redução de dimensionalidade aplicada à diarização de locutor / Dimensionality reduction applied to speaker diarization

Silva, Sérgio Montazzolli January 2013 (has links)
Atualmente existe uma grande quantidade de dados multimídia sendo geradas todos os dias. Estes dados são oriundos de diversas fontes, como transmissões de rádio ou televisão, gravações de palestras, encontros, conversas telefônicas, vídeos e fotos capturados por celular, entre outros. Com isto, nos últimos anos o interesse pela transcrição de dados multimídia tem crescido, onde, no processamento de voz, podemos destacar as áreas de Reconhecimento de Locutor, Reconhecimento de Fala, Diarização de Locutor e Rastreamento de Locutores. O desenvolvimento destas áreas vem sendo impulsionado e direcionado pelo NIST, que periodicamente realiza avaliações sobre o estado-da-arte. Desde 2000, a tarefa de Diarização de Locutor tem se destacado como uma das principáis frentes de pesquisa em transcrição de dados de voz, tendo sido avaliada pelo NIST por diversas vezes na última década. O objetivo desta tarefa é encontrar o número de locutores presentes em um áudio, e rotular seus respectivos trechos de fala, sem que nenhuma informação tenha sido previamente fornecida. Em outras palavras, costuma-se dizer que o objetivo é responder a questão "Quem falou e quando?". Um dos grandes problemas nesta área é se conseguir obter um bom modelo para cada locutor presente no áudio, dada a pouca quantidade de informações e a alta dimensionalidade dos dados. Neste trabalho, além da criação de um Sistema de Diarização de Locutor, iremos tratar este problema mediante à redução de dimensionalidade através de análises estatísticas. Usaremos a Análise de Componentes Principáis, a Análise de Discriminantes Lineares e a recém apresentada Análise de Semi-Discriminantes Lineares. Esta última utiliza um método de inicialização estático, iremos propor o uso de um método dinâmico, através da detecção de pontos de troca de locutor. Também investigaremos o comportamento destas análises sob o uso simultâneo de múltiplas parametrizações de curto prazo do sinal acústico. Os resultados obtidos mostram que é possível preservar - ou até melhorar - o desempenho do sistema, mesmo reduzindo substâncialmente o número de dimensões. Isto torna mais rápida a execução de algoritmos de Aprendizagem de Máquina e reduz a quantidade de memória necessária para armezenar os dados. / Currently, there is a large amount of multimedia data being generated everyday. These data come from various sources, such as radio or television, recordings of lectures and meetings, telephone conversations, videos and photos captured by mobile phone, among others. Because of this, interest in automatic multimedia data transcription has grown in recent years, where, for voice processing, we can highlight the areas of Speaker Recognition, Speech Recognition, Speaker Diarization and Speaker Tracking. The development of such areas is being conducted by NIST, which periodically promotes state-of-the-art evaluations. Since 2000, the task of Speaker Diarization has emerged as one of the main research fields in voice data transcription, having been evaluated by NIST several times in the last decade. The objective of this task is to find the number of speakers in an audio recording, and properly label their speech segments without the use of any training information. In other words , it is said that the goal of Speaker Diarization is to answer the question "Who spoke when?". A major problem in this area is to obtain a good speaker model from the audio, given the limited amount of information available and the high dimensionality of the data. In the current work, we will describe how our Speaker Diarization System was built, and we will address the problem mentioned by lowering the dimensionality of the data through statistical analysis. We will use the Principal Component Analysis, the Linear Discriminant Analysis and the newly presented Fisher Linear Semi-Discriminant Analysis. The latter uses a static method for initialization, and here we propose the use of a dynamic method by the use of a speaker change points detection algorithm. We also investigate the behavior of these data analysis techniques under the simultaneous use of multiple short term features. Our results show that it is possible to maintain - and even improve - the system performance, by substantially reducing the number of dimensions. As a consequence, the execution of Machine Learning algorithms is accelerated while reducing the amount of memory required to store the data.
118

Algoritmos de seleção de características personalizados por classe para categorização de texto

FRAGOSO, Rogério César Peixoto 26 August 2016 (has links)
Submitted by Rafael Santana (rafael.silvasantana@ufpe.br) on 2017-08-31T19:39:48Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) Rogerio_Fragoso.pdf: 1117500 bytes, checksum: 3e7915ee5c34322de3a8358d59679961 (MD5) / Made available in DSpace on 2017-08-31T19:39:48Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) Rogerio_Fragoso.pdf: 1117500 bytes, checksum: 3e7915ee5c34322de3a8358d59679961 (MD5) Previous issue date: 2016-08-26 / A categorização de textos é uma importante ferramenta para organização e recuperação de informações em documentos digitais. Uma abordagem comum é representar cada palavra como uma característica. Entretanto, a maior parte das características em um documento textual são irrelevantes para sua categorização. Assim, a redução de dimensionalidade é um passo fundamental para melhorar o desempenho de classificação e reduzir o alto custo computacional inerente a problemas de alta dimensionalidade, como é o caso da categorização de textos. A estratégia mais utilizada para redução de dimensionalidade em categorização de textos passa por métodos de seleção de características baseados em filtragem. Métodos deste tipo exigem um esforço para configurar o tamanho do vetor final de características. Este trabalho propõe métodos de filtragem com o intuito melhorar o desempenho de classificação em comparação com os métodos atuais e de tornar possível a automatização da escolha do tamanho do vetor final de características. O primeiro método proposto, chamado Category-dependent Maximum f Features per Document-Reduced (cMFDR), define um limiar para cada categoria para determinar quais documentos serão considerados no processo de seleção de características. O método utiliza um parâmetro para definir quantas características são selecionadas por documento. Esta abordagem apresenta algumas vantagens, como a simplificação do processo de escolha do subconjunto mais efetivo através de uma drástica redução da quantidade de possíveis configurações. O segundo método proposto, Automatic Feature Subsets Analyzer (AFSA), introduz um procedimento para determinar, de maneira guiada por dados, o melhor subconjunto de características dentre um número de subconjuntos gerados. Este método utiliza o mesmo parâmetro usado por cMFDR para definir a quantidade de características no vetor final. Isto permite que a busca pelo melhor subconjunto tenha um baixo custo computacional. O desempenho dos métodos propostos foram avaliados nas bases de dados WebKB, Reuters, 20 Newsgroup e TDT2, utilizando as funções de avaliação de características Bi-Normal Separation, Class Discriminating Measure e Chi-Squared Statistics. Os resultados dos experimentos demonstraram uma maior efetividade dos métodos propostos em relação aos métodos do estado da arte. / Text categorization is an important technic to organize and retrieve information from digital documents. A common approach is to represent each word as a feature. However most of the features in a textual document is irrelevant to its categorization. Thus, dimensionality reduction is a fundamental step to improve classification performance and diminish the high computational cost inherent to high dimensional problems, such as text categorization. The most commonly adopted strategy for dimensionality reduction in text categorization undergoes feature selection methods based on filtering. This kind of method requires an effort to configure the size of the final feature vector. This work proposes filtering methods aiming to improve categorization performence comparing to state-of-the-art methods and to provide a possibility of automitic determination of the size of the final feature set. The first proposed method, namely Category-dependent Maximum f Features per Document-Reduced (cMFDR), sets a threshold for each category that determines which documents are considered in feature selection process. The method uses a parameter to arbitrate how many features are selected per document. This approach presents some advantages, such as simplifying the process of choosing the most effective subset through a strong reduction of the number of possible configurations. The second proposed method, Automatic Feature Subsets Analyzer (AFSA), presents a procedure to determine, in a data driven way, the most effective subset among a number of generated subsets. This method uses the same parameter used by cMFDR to define the size of the final feature vector. This fact leads to lower computational costs to find the most effective set. The performance of the proposed methods was assessed in WebKB, Reuters, 20 Newsgroup and TDT2 datasets, using Bi-Normal Separation, Class Discriminating Measure and Chi-Squared Statistics feature evaluations functions. The experimental results demonstrates that the proposed methods are more effective than state-of-art methods.
119

Sujeito e performance: a emergência do corpo inscrito em enunciados tridimensionais / Subject and performance: body registered in emergency statements three-dimensional

Luterman, Luana Alves 14 July 2014 (has links)
Submitted by Erika Demachki (erikademachki@gmail.com) on 2015-10-20T16:27:09Z No. of bitstreams: 2 Tese - Luana Alves Luterman - 2014.pdf: 4494945 bytes, checksum: ef7f9ce28d34ae1808d840efc0285292 (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) / Approved for entry into archive by Erika Demachki (erikademachki@gmail.com) on 2015-10-20T16:29:02Z (GMT) No. of bitstreams: 2 Tese - Luana Alves Luterman - 2014.pdf: 4494945 bytes, checksum: ef7f9ce28d34ae1808d840efc0285292 (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) / Made available in DSpace on 2015-10-20T16:29:02Z (GMT). No. of bitstreams: 2 Tese - Luana Alves Luterman - 2014.pdf: 4494945 bytes, checksum: ef7f9ce28d34ae1808d840efc0285292 (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) Previous issue date: 2014-07-14 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / This theses aims at analyzing the relation between the body and three-dimensional objects. It seeks to comprehend the effects of language for the subject in contact with three-dimensional utterances in a specific corpus: panels, sculptures and contemporary artistic installations of the exhibition Vertigo, by The Twins; pop-up books such as Alice’s Adventures in Wonderland and The Little Prince; billboards with three-dimensional effects; videogames such as Xbox 360 and Nintendo Wii. Traversed by multiple devices such as the three-dimensional, the body is a recent object of analysis (COURTINE, 2013). The visual culture engenders the importance to consider the movements of the body not only by an anatomic-political gesture (FOUCAULT, 2003a) of the eye, but also by a disciplinarization operated by the body in its inscription realized by the focus on esthetics itself, paradigm of expression (COURTINE; HAROCHE, 1988), of particular hedonism and narcissism (HAROCHE, 2011), which transforms the interaction of the I in relation to the other. Training is a bio-political and institutional value, but in a society of control where deterritorialization (DELEUZE, 1992) interpellates the subjects, performance is the singular actional result, protocol of reading which, on the one hand, depends on historical agency, and on the other hand, calls the body with its psychical particularities. The theoretic-methodological background of the investigation is the Discourse Analysis of French roots. The discursive memory supports the internal images of the individual subject (category elaborated from the gradation of a bigger category, the discursive memory, which encompasses internal images). The individual subject, with its internal images, reminiscences of his social experiences, provides the reading of the individual, who accomplishes his own reading (performances) in between his own and the other‟s dialectical strengths. Starting from internal images, performance is realized by intericonicity, which is a trait instituted in visual arts proposed by Courtine (2005) based on some influences from anthropology, considering that seen images are not common to all individuals. Thus, the individual must be valued as an entity that delineates a singular path while composing his own way of reading (ZUMTHOR, 2007). It seems that the aesthetic sensation of the individual towards himself is ontological, naturally and independently from the archive. However, all and any internal images that generate the performance are a symbiosis supported by the discursive memory. The reactions of the body are biological, but always engaged by the historical associations of each feeling. The organic-social response of a body to a stimulus is not identical: there is a volatile identity (LE BRETON, 2003). Behaviors are heterotopic (FOUCAULT, 2003b), and for this reason they also lead to resistances. As a result, we indicate the performance as forgetfulness of history which traverses the existence of the body. The metamorphosis of the performance is increasingly more modern, since contemporaneity values mutation and disposability, the liquid behavior that values the present time (BAUMAN, 2007) in the name of hedonism, the worship of the body and of the individual himself, a cultural autism which intends to erase the historical memory for the overlap of the docile-body of the narcissical apathy, the end of memory-societies, according to Nora (1993). / Esta tese objetiva analisar a relação entre corpo e objetos tridimensionais. Procura compreender os efeitos de linguagem para o sujeito em contato com enunciados tridimensionais, em corpus específico: painéis, esculturas e instalações de arte contemporânea da exposição Vertigem, de Osgêmeos; livros pop-up, Alice no país das maravilhas e O pequeno príncipe; outdoors com efeitos tridimensionais; videogames como Xbox 360 e Nintendo Wii. O corpo, perpassado por múltiplos dispositivos, como o tridimensional, é objeto de análise recente (COURTINE, 2013). A cultura visual engendra a importância de consideração dos movimentos não apenas por um gesto anátomo-político (FOUCAULT, 2003a) do olhar, mas também de uma disciplinarização operada pelo corpo em sua inscrição efetuada pelo foco na estética de si, paradigma de expressão (COURTINE; HAROCHE, 1988) de hedonismo e narcisismo (HAROCHE, 2011) peculiares, que transformam a interação do eu em relação ao outro. O adestramento é um valor biopolítico, institucional, porém, numa sociedade de controle, em que a desterritorialização (DELEUZE, 1992) interpela os sujeitos, a performance é o resultado actancial singular, protocolo de leitura que depende de agenciamentos históricos, contudo, convoca o corpo, com suas particularidades psíquicas. O aparato teórico-metodológico da investigação é a Análise do Discurso de linha francesa. A memória discursiva alicerça as imagens internas do sujeito individual (categoria elaborada a partir da gradação de uma categoria maior, a memória discursiva, que abarca as imagens internas). O sujeito individual, com suas imagens internas, reminiscências de sua experimentação social, proporciona a leitura do indivíduo, que realiza as próprias leituras (performances) em meio às forças dialéticas de si e do outro. A performance, a partir das imagens internas, realiza-se pela intericonicidade, traço instituído na cultura visual pensada por Courtine (2005), por meio das influências da antropologia, considerando que as imagens vistas não são comuns a todos os indivíduos. Assim, o indivíduo deve ser valorizado como entidade que traça um percurso singular ao compor seu próprio percurso de leitura (ZUMTHOR, 2007). Parece ontológica a sensação estética do ser por si mesmo, natural e independente do arquivo. Entretanto, toda e qualquer imagem interna, que gera a performance, é uma simbiose amparada pela memória discursiva. As reações de um corpo são biológicas, mas sempre engatadas pelas associações históricas de cada sentimento. Não é idêntica a resposta orgânico-social de um corpo a um estímulo: há uma identidade volátil (LE BRETON, 2003). Comportamentos são heterotópicos (FOUCAULT, 2003b), por isso, também propiciam resistências. Como resultado, apontamos a performance como esquecimento da história que perpassa a existência do corpo. A metamorfose da performance é cada vez mais atual, pois a contemporaneidade valoriza a mutação e a descartabilidade, o comportamento líquido que valoriza o tempo presente (BAUMAN, 2007) em nome do hedonismo, do culto ao corpo e a si mesmo, um autismo cultural que pretende apagar a memória histórica para a sobreposição do corpo-dócil da apatia narcísica, o fim das sociedades-memória, de acordo com Nora (1993).
120

Creating an experimental testbed for information-theoretic analysis of architectures for x-ray anomaly detection

Coccarelli, David, Greenberg, Joel A., Mandava, Sagar, Gong, Qian, Huang, Liang-Chih, Ashok, Amit, Gehm, Michael E. 01 May 2017 (has links)
Anomaly detection requires a system that can reliably convert measurements of an object into knowledge about that object. Previously, we have shown that an information-theoretic approach to the design and analysis of such systems provides insight into system performance as it pertains to architectural variations in source fluence, view number/angle, spectral resolution, and spatial resolution.(1) However, this work was based on simulated measurements which, in turn, relied on assumptions made in our simulation models and virtual objects. In this work, we describe our experimental testbed capable of making transmission x-ray measurements. The spatial, spectral, and temporal resolution is sufficient to validate aspects of the simulation-based framework, including the forward models, bag packing techniques, and performance analysis. In our experimental CT system, designed baggage is placed on a rotation stage located between a tungsten-anode source and a spectroscopic detector array. The setup is able to measure a full 360 rotation with 18,000 views, each of which defines a 10 ms exposure of 1,536 detector elements, each with 64 spectral channels. Measurements were made of 1,000 bags that comprise 100 clutter instantiations each with 10 different target materials. Moreover, we develop a systematic way to generate bags representative of our desired clutter and target distributions. This gives the dataset a statistical significance valuable in future investigations.

Page generated in 0.1831 seconds