61 |
Classificação de sinais EGG combinando Análise em Componentes Independentes, Redes Neurais e Modelo Oculto de MarkovSantos, Hallan Cosmo dos 26 May 2015 (has links)
Identify some digestive features in people through Electrogastrogram (EGG) is important because this is a cheap, non-invasive and less bother way than traditional endoscopy procedure. This work evaluates the learning behavior of Artificial Neural Networks (ANN) and Hidden Markov Model (HMM) on components extracted by Independent Component Analysis (ICA) algorithms. In this research, an experiment was made with statistical analysis that shows the relationship between neutral, negative or positive images and digestive reactions.
Training some classifiers with an EGG signal database, where the emotional states of individuals are known during processing, would it be possible to carry out the other way? Meaning, just from the EGG signal, estimate the emotional state of individuals. The initial challenge is to treat the EGG signal, which is mixed with the signals from other organs such as heart and lung. For this, the FastICA and Tensorial Methods algorithms were used, in order to produce a set of independent components, where one can identify the stomach component. Then, the EGG signal classification is performed through ANN and HMM models. The results have shown that extracting only the stomach signal component before the experiment can reduce the learning error rate in classifiers. / Identificar características digestivas de pessoas através da Eletrogastrografia (EGG) é importante pois esta costuma ser uma opção barata, não-invasiva e incomoda menos que o tradicional procedimento de Endoscopia. Este trabalho avalia o comportamento do aprendizado das Redes Neurais Artificiais (RNA) e do Modelo Oculto de Markov (HMM) diante de componentes extraídas por algoritmos de Análise de Componentes Independentes (ICA). Nesta pesquisa é realizado um experimento com análise estatística cujo objetivo apresenta a relação entre a visualização de imagens neutras, negativas ou positivas e as reações digestivas.
Treinando alguns classificadores com uma base de dados de sinais EGG, onde se conhece os estados emocionais dos indivíduos durante a sua obtenção, seria possível realizar o caminho inverso? Em outras palavras, apenas a partir dos sinais EGG, pode-se estimar o estado emocional de indivíduos? O desafio inicial é tratar o sinal EGG que encontra-se misturado aos sinais de outros órgãos como coração e pulmão. Para isto foi utilizado o algoritmo FastICA e os métodos tensoriais, com o intuito de produzir um conjunto de componentes independentes onde se possa identificar a componente do estômago. Em seguida, a classifição do sinal EGG é realizada por meio dos modelos de RNA e HMM. Os resultados mostraram que classificar apenas as componentes com mais presença da frequência do sinal do estômago pode reduzir a taxa de erro do aprendizado dos classificadores no experimento realizado.
|
62 |
Video motion description based on histograms of sparse trajectoriesOliveira, Fábio Luiz Marinho de 05 September 2016 (has links)
Submitted by Renata Lopes (renatasil82@gmail.com) on 2017-06-06T19:12:19Z
No. of bitstreams: 1
fabioluizmarinhodeoliveira.pdf: 1410854 bytes, checksum: cb71ee666cda7d462ce0dd33963a988c (MD5) / Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2017-06-07T13:33:08Z (GMT) No. of bitstreams: 1
fabioluizmarinhodeoliveira.pdf: 1410854 bytes, checksum: cb71ee666cda7d462ce0dd33963a988c (MD5) / Made available in DSpace on 2017-06-07T13:33:08Z (GMT). No. of bitstreams: 1
fabioluizmarinhodeoliveira.pdf: 1410854 bytes, checksum: cb71ee666cda7d462ce0dd33963a988c (MD5)
Previous issue date: 2016-09-05 / Descrição de movimento tem sido um tema desafiador e popular há muitos anos em
visão computacional e processamento de sinais, mas também intimamente relacionado a
aprendizado de máquina e reconhecimento de padrões. Frequentemente, para realizar essa
tarefa, informação de movimento é extraída e codificada em um descritor. Este trabalho
apresenta um método simples e de rápida computação para extrair essa informação e
codificá-la em descritores baseados em histogramas de deslocamentos relativos. Nossos
descritores são compactos, globais, que agregam informação de quadros inteiros, e o que
chamamos de auto-descritor, que não depende de informações de sequências senão aquela
que pretendemos descrever. Para validar estes descritores e compará-los com outros tra
balhos, os utilizamos no contexto de Reconhecimento de Ações Humanas, no qual cenas
são classificadas de acordo com as ações nelas exibidas. Nessa validação, obtemos resul
tados comparáveis aos do estado-da-arte para a base de dados KTH. Também avaliamos
nosso método utilizando as bases UCF11 e Hollywood2, com menores taxas de reconhe
cimento, considerando suas maiores complexidades. Nossa abordagem é promissora, pelas
razoáveis taxas de reconhecimento obtidas com um método muito menos complexo que os
do estado-da-arte, em termos de velocidade de computação e compacidade dos descritores
obtidos. Adicionalmente, experimentamos com o uso de Aprendizado de Métrica para a
classificação de nossos descritores, com o intuito de melhorar a separabilidade e a com
pacidade dos descritores. Os resultados com Aprendizado de Métrica apresentam taxas
de reconhecimento inferiores, mas grande melhoria na compacidade dos descritores. / Motion description has been a challenging and popular theme over many years within
computer vision and signal processing, but also very closely related to machine learn
ing and pattern recognition. Very frequently, to address this task, one extracts motion
information from image sequences and encodes this information into a descriptor. This
work presents a simple and fast computing method to extract this information and en
code it into descriptors based on histograms of relative displacements. Our descriptors
are compact, global, meaning it aggregates information from whole frames, and what we
call self-descriptors, meaning they do not depend on information from sequences other
than the one we want to describe. To validate these descriptors and compare them to
other works, we use them in the context of Human Action Recognition, where scenes are
classified according to the action portrayed. In this validation, we achieve results that are
comparable to those in the state-of-the-art for the KTH dataset. We also evaluate our
method on the UCF11 and Hollywood2 datasets, with lower recognition rates, considering
their higher complexity. Our approach is a promising one, due to the fairly good recogni
tion rates we obtain with a much less complex method than those of the state-of-the-art,
in terms of speed of computation and final descriptor compactness. Additionally, we ex
periment with the use of Metric Learning in the classification of our descriptors, aiming
to improve the separability and compactness of the descriptors. Our results for Metric
Learning show inferior recognition rates, but great improvement for the compactness of
the descriptors.
|
63 |
PARES ADMISSÍVEIS, SISTEMAS ADMISSÍVEIS E BIÁLGEBRAS NA CATEGORIA DOS MÓDULOS DE YETTER-DRINFELD / ADMISSIBLE PAIR, ADMISSIBLE SYSTEM AND BIALGEBRA IN CATEGORY OF MODULES OF YETTER-DRINFELDVieira, Larissa Hagedorn 19 March 2014 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / The purpose of this work is to study the relationships between admissible pairs, systems admissible and bialgebras in the category of Yetter-Drinfeld modules, as well as some properties of the Hopf algebra associated (via bosonization) to an admissible pair. We
end this dissertation with a family of examples of admissible pairs. / O objetivo deste trabalho é estudar as relações entre pares admissíveis, sistemas admissíveis e biálgebras na categoria dos módulos de Yetter-Drinfeld, bem como algumas propriedades da álgebra de Hopf associada (via bosonização) a um par admissível. Finalizamos esta dissertação com uma família de exemplos de pares admissíveis.
|
64 |
TSS e TSB: novos descritores de forma baseados em tensor scale / TSS & TSB: new shape descriptors based on tensor scaleAnderson Meirelles Freitas 24 October 2017 (has links)
Neste trabalho são apresentados dois novos descritores de forma para tarefas de recuperação de imagens por conteúdo (CBIR) e análise de formas, que são construídos sobre uma extensão do conceito de tensor scale baseada na Transformada de Distância Euclidiana (EDT). Primeiro, o algoritmo de tensor scale é utilizado para extrair informações da forma sobre suas estruturas locais (espessura, orientação e anisotropia) representadas pela maior elipse contida em uma região homogênea centrada em cada pixel da imagem. Nos novos descritores, o limite do intervalo das orientações das elipses do modelo de tensor scale é estendido de 180º para 360º, de forma a melhor discriminar a descrição das estruturas locais. Então, com base em diferentes abordagens de amostragem, visando resumir informações mais relevantes, os novos descritores são construídos. No primeiro descritor proposto, Tensor Scale Sector (TSS), a distribuição das orientações relativas das estruturas locais em setores circulares é utilizada para compor um vetor de características de tamanho fixo, para uma caracterização de formas baseada em região. No segundo descritor, o Tensor Scale Band (TSB), foram considerados histogramas das orientações relativas extraídos de bandas concêntricas, formando também um vetor de características de tamanho fixo, com uma função de distância de tempo linear. Resultados experimentais com diferentes bases de formas (MPEG-7 e MNIST) são apresentados para ilustrar e validar os métodos. TSS demonstra resultados comparáveis aos métodos estado da arte, que geralmente dependem de algoritmos custosos de otimização de correspondências. Já o TSB, com sua função de distância em tempo linear, se demonstra como uma solução adequada para grandes coleções de formas. / In this work, two new shape descriptors are proposed for tasks in Content-Based Image Retrieval (CBIR) and Shape Analysis tasks, which are built upon an extended tensor scale based on the Euclidean Distance Transform (EDT). First, the tensor scale algorithm is applied to extract shape attributes from its local structures (thickness, orientation, and anisotropy) as represented by the largest ellipse within a homogeneous region centered at each image pixel. In the new descriptors, the upper limit of the interval of local orientation of tensor scale ellipses is extended from 180º to 360º, to better discriminate the description of local structures. Then, the new descriptors are built based on different sampling approaches, aiming to summarize the most relevant features. In the first proposed descriptor, Tensor Scale Sector descriptor (TSS), the local distributions of relative orientations within circular sectors are used to compose a fixed-length feature vector, for a region-based shape characterization. For the second method, the Tensor Scale Band (TSB) descriptor, histograms of relative orientations are considered for each circular concentric band, to also compose a fixed-length feature vector, with linear time distance function for matching. Experimental results for different shape datasets (MPEG-7 and MNIST) are presented to illustrate and validate the methods. TSS can achieve high retrieval values comparable to state-of-the-art methods, which usually rely on time-consuming correspondence optimization algorithms, but uses a simpler and faster distance function, while the even faster linear complexity of TSB leads to a suitable solution for very large shape collections.
|
65 |
Signature infrarouge et modélisation pour la télédétection de deux gaz : SF6 et RuO4 / Infrared signature and modeling for remote sensing of two gases : SF6 and RuO4Faye, Mbaye 07 July 2017 (has links)
Ce travail est une contribution à l'étude spectroscopique de deux gaz d'origine anthropique pour lesquels la modélisation de la signature infrarouge pourra permettre une quantification dans rejets dans l'atmosphère. L'hexafluorure de soufre (SF₆) est principalement rejeté par l'industrie électrique, qui l'utilise comme isolant gazeux et sa concentration augmente rapidement dans l'atmosphère (de l'ordre de 7 % par an). C'est un gaz à effet de serre puissant listé dans le protocole de Kyoto car ses absorptions intenses vers 10 μm placées dans une fenêtre de transparence atmosphérique et sa durée de vie élevée dans la haute atmosphère(environ 3200 ans) lui confèrent un coefficient de transfert radiatif exceptionnellement élevé (Global Warming Potential, ou GWP égal à 23900 fois celui du dioxyde de carbone, CO₂). La détection et la quantification de ce gaz par sa signature infrarouge via des mesures par satellite nécessitent une très bonne modélisation des spectres d'absorption, incomplètement connus. SF6 est un molécule lourde qui présente un grand nombre de niveaux vibrationnels de basse énergie, donnant lieu à des bandes chaudes dans le domaine des absorptions atmosphériques autour de sa vibration fondamentale la plus intense et celles-ci impliquent des états excités peu ou pas caractérisés. Ainsi, à température ambiante, seules 32 %des molécules se trouvent dans l'état vibrationnel de base. Les bases de données actuelles ne contiennent que les données des bandes de vibration fondamentales. Pour pallier ce manque, il est donc nécessaire d'observer un certain nombre de transitions depuis l'état fondamental vers les niveaux excités de basse énergie servant d'état initial aux bandes chaudes et d'acquérir des données permettant de modéliser aussi les niveaux à deux quanta de vibration constituant les niveaux d'arrivée de ces bandes chaudes.Ce travail est une contribution à l'étude spectroscopique de deux gaz d'origine anthropique pour lesquels la modélisation de la signature infrarouge pourra permettre une quantification dans rejets dans l'atmosphère. L'hexafluorure de soufre (SF6) est principalement rejeté par l'industrie électrique, qui l'utilise comme isolant gazeux et sa concentration augmente rapidement dans l'atmosphère (de l'ordre de 7 % par an). C'est un gaz à effet de serre puissant listé dans le protocole de Kyoto car ses absorptions intenses vers 10 μm placées dans une fenêtre de transparence atmosphérique et sa durée de vie élevée dans la haute atmosphère(environ 3200 ans) lui confèrent un coefficient de transfert radiatif exceptionnellement élevé (Global Warming Potential, ou GWP égal à 23900 fois celui du dioxyde de carbone, CO₂). La détection et la quantification de ce gaz par sa signature infrarouge via des mesures par satellite nécessitent une très bonne modélisation des spectres d'absorption, incomplètement connus. SF₆ est un molécule lourde qui présente un grand nombre de niveaux vibrationnels de basse énergie, donnant lieu à des bandes chaudes dans le domaine des absorptions atmosphériques autour de sa vibration fondamentale la plus intense et celles-ci impliquent des états excités peu ou pas caractérisés. Ainsi, à température ambiante, seules 32 %des molécules se trouvent dans l'état vibrationnel de base. Les bases de données actuelles ne contiennent que les données des bandes de vibration fondamentales. Pour pallier ce manque, il est donc nécessaire d'observer un certain nombre de transitions depuis l'état fondamental vers les niveaux excités de basse énergie servant d'état initial aux bandes chaudes et d'acquérir des données permettant de modéliser aussi les niveaux à deux quanta de vibration constituant les niveaux d'arrivée de ces bandes chaudes. / This work is a contribution to the spectroscopic study of two gases of anthropogenic origin for which the modeling of the infrared signature may allow a quantification in releases in the atmosphere. Sulfur hexafluoride (SF₆) is mainly rejected by the electrical industry, which uses it as a gaseous insulator and its concentration increases rapidly in the atmosphere (of the order of 7 per cent per year). It is a potent greenhouse gas listed in the Kyoto Protocol because its intense absorption around 10 μm issituated in a window of atmospheric transparency and its lifetime in the upper atmosphere (approximately 3200 years) confers an exceptionally high radiative transfer coefficient (Global WarmingPotential, or GWP equal to 23900 times that of carbon dioxide,CO2). The detection and quantification of this gas by its infrared signature via satellite measurements requires a very accurate modeling of the absorption spectra, incompletely known. For SF₆,in particular because of the fact that this heavy molecule presents a large number of vibrational levels of low energy, there exist hotbands in the region of atmospheric absorption around its most intense fundamental absorption (v₃); these involve excited states little or not characterized. Thus, at ambient temperature, only 32% of the molecules are located in the vibrational ground state. Current databases contain only data for the fundamental vibrationband. To compensate for this lack, it is therefore necessary toobserve a number of transitions from the ground state to the excited levels of low energy used corresponding to initial states of the hot bands and to acquire data for modeling also levels with two quanta of vibration constituting the upper levels of arrival of thes ehot bands.This work is a contribution to the spectroscopic study of two gases of anthropogenic origin for which the modeling of the infrared signature may allow a quantification in releases in the atmosphere.Sulfur hexafluoride (SF₆) is mainly rejected by the electricalindustry, which uses it as a gaseous insulator and its concentration increases rapidly in the atmosphere (of the order of 7 per cent peryear). It is a potent greenhouse gas listed in the Kyoto Protocolbecause its intense absorption around 10 μm is situated in awindow of atmospheric transparency and its lifetime in the upper atmosphere (approximately 3200 years) confers an exceptionally high radiative transfer coefficient (Global Warming Potential, orGWP equal to 23900 times that of carbon dioxide, CO2). The detection and quantification of this gas by its infrared signature via satellite measurements requires a very accurate modeling of theabsorption spectra, incompletely known. For SF6, in particular because of the fact that this heavy molecule presents a largenumber of vibrational levels of low energy, there exist hot bands in the region of atmospheric absorption around its most intensefundamental absorption (v3); these involve excited states little or not characterized. Thus, at ambient temperature, only 32 % of themolecules are located in the vibrational ground state. Current databases contain only data for the fundamental vibration band. Tocompensate for this lack, it is therefore necessary to observe a number of transitions from the ground state to the excited levels oflow energy used corresponding to initial states of the hot bands andto acquire data for modeling also levels with two quanta ofvibration constituting the upper levels of arrival of these hot bands.
|
66 |
[en] EXTRACTING RELIABLE INFORMATION FROM LARGE COLLECTIONS OF LEGAL DECISIONS / [pt] EXTRAINDO INFORMAÇÕES CONFIÁVEIS DE GRANDES COLEÇÕES DE DECISÕES JUDICIAISFERNANDO ALBERTO CORREIA DOS SANTOS JUNIOR 09 June 2022 (has links)
[pt] Como uma consequência natural da digitalização do sistema judiciário
brasileiro, um grande e crescente número de documentos jurídicos tornou-se
disponível na internet, especialmente decisões judiciais. Como ilustração, em
2020, o Judiciário brasileiro produziu 25 milhões de decisões. Neste mesmo
ano, o Supremo Tribunal Federal (STF), a mais alta corte do judiciário brasileiro, produziu 99.5 mil decisões. Alinhados a esses valores, observamos
uma demanda crescente por estudos voltados para a extração e exploração
do conhecimento jurídico de grandes acervos de documentos legais. Porém,
ao contrário do conteúdo de textos comuns (como por exemplo, livro, notícias e postagem de blog), o texto jurídico constitui um caso particular
de uso de uma linguagem altamente convencionalizada. Infelizmente, pouca
atenção é dada à extração de informações em domínios especializados, como
textos legais. Do ponto de vista temporal, o Judiciário é uma instituição em
constante evolução, que se molda para atender às demandas da sociedade.
Com isso, o nosso objetivo é propor um processo confiável de extração de
informações jurídicas de grandes acervos de documentos jurídicos, tomando
como base o STF e as decisões monocráticas publicadas por este tribunal nos
anos entre 2000 e 2018. Para tanto, pretendemos explorar a combinação de
diferentes técnicas de Processamento de Linguagem Natural (PLN) e Extração de Informação (EI) no contexto jurídico. Da PLN, pretendemos explorar
as estratégias automatizadas de reconhecimento de entidades nomeadas no
domínio legal. Do ponto da EI, pretendemos explorar a modelagem dinâmica de tópicos utilizando a decomposição tensorial como ferramenta para
investigar mudanças no raciocinio juridico presente nas decisões ao lonfo do
tempo, a partir da evolução do textos e da presença de entidades nomeadas legais. Para avaliar a confiabilidade, exploramos a interpretabilidade
do método empregado, e recursos visuais para facilitar a interpretação por
parte de um especialista de domínio. Como resultado final, a proposta de
um processo confiável e de baixo custo para subsidiar novos estudos no domínio jurídico e, também, propostas de novas estratégias de extração de
informações em grandes acervos de documentos. / [en] As a natural consequence of the Brazilian Judicial System’s digitization, a large and increasing number of legal documents have become available on the Internet, especially judicial decisions. As an illustration, in 2020,
25 million decisions were produced by the Brazilian Judiciary. Meanwhile,
the Brazilian Supreme Court (STF), the highest judicial body in Brazil,
alone has produced 99.5 thousand decisions. In line with those numbers, we
face a growing demand for studies focused on extracting and exploring the
legal knowledge hidden in those large collections of legal documents. However, unlike typical textual content (e.g., book, news, and blog post), the
legal text constitutes a particular case of highly conventionalized language.
Little attention is paid to information extraction in specialized domains such
as legal texts. From a temporal perspective, the Judiciary itself is a constantly evolving institution, which molds itself to cope with the demands of
society. Therefore, our goal is to propose a reliable process for legal information extraction from large collections of legal documents, based on the STF
scenario and the monocratic decisions published by it between 2000 and
2018. To do so, we intend to explore the combination of different Natural
Language Processing (NLP) and Information Extraction (IE) techniques on
legal domain. From NLP, we explore automated named entity recognition
strategies in the legal domain. From IE, we explore dynamic topic modeling with tensor decomposition as a tool to investigate the legal reasoning
changes embedded in those decisions over time through textual evolution
and the presence of the legal named entities. For reliability, we explore the
interpretability of the methods employed. Also, we add visual resources to
facilitate interpretation by a domain specialist. As a final result, we expect
to propose a reliable and cost-effective process to support further studies
in the legal domain and, also, to propose new strategies for information
extraction on a large collection of documents.
|
67 |
Modelagem tensorial e processamento de sinais por sistemas de comunicaÃÃes de redes / Tensor modeling and signal processing for wireless communication systemsAndrà Lima FÃrrer de Almeida 02 November 2007 (has links)
CoordenaÃÃo de AperfeiÃoamento de NÃvel Superior / Em diversas aplicaÃÃes do processamento de sinais em sistemas de comunicaÃÃo sem-fio, o sinal recebido à de natureza multidimensional, possuindo uma estrutura algÃbrica multilinear. Neste contexto, a decomposiÃÃo tensorial PARAFAC tem sido utilizada em vÃrios trabalhos ao longo dos Ãltimos seis anos. Observa-se, entretanto, que decomposiÃÃes tensoriais generalizadas sÃo necessÃrias para modelar uma classe mais ampla de sistemas de comunicaÃÃo, caracterizada pela presenÃa de estruturas de transmissÃo mais complexas, por modelos de canal mais realistas, e por tÃcnicas de processamento de sinais mais eficientes no receptor. Esta tese investiga novas abordagens tensorias e suas aplicaÃÃes em modelagem de sistemas MIMO, equalizaÃÃo, separaÃÃo de sinais e estimaÃÃo paramÃtrica de canal. Inicialmente, duas novas decomposiÃÃes tensoriais (PARAFAC em blocos com
restriÃÃes e CONFAC) sÃo desenvolvidas e estudadas em termos de identificabilidade. Em uma segunda parte do trabalho, novas aplicaÃÃes destas decomposiÃÃes tensoriais sÃo propostas. A decomposiÃÃo PARAFAC em blocos com restriÃÃes à aplicada, primeiramente, Âa modelagem unificada de sistemassuperamostrados, DS-CDMA e OFDM, com aplicaÃÃo em equalizaÃÃo multiusuÃria. Em seguida, esta decomposiÃÃo à utilizada na modelagem de sistemas de transmissÃo MIMO com espalhamento espaÃo-temporal e detecÃÃo conjunta. Em seguida, a decomposiÃÃo CONFAC à explorada na concepÃÃo de uma nova arquitetura generalizada de transmissÃo MIMO/CDMA que combina diversidade e multiplexagem. As propriedades de unicidade desta decomposiÃÃo permitem o uso do processamento nÃo-supervisionado no receptor, visando a reconstruÃÃo dos sinais transmitidos e a estimaÃÃo do canal. Na terceira e Ãltima parte deste trabalho, explora-se a decomposiÃÃo PARAFAC no contexto de duas aplicaÃÃes diferentes. Na primeira, uma nova estrutura de transmissÃo espaÃo-temporal-freqÃencial à proposta para sistemas MIMO multiportadora. A segunda aplicaÃÃo consiste em um novo estimador paramÃtrico para canais multipercursos. / In several signal processing applications for wireless communications, the received signal is multidimensional in nature and may exhibit a multilinear algebraic structure. In this context, the PARAFAC tensor decomposition has been the subject of several works in the past six years. However, generalized tensor decompositions are necessary for covering a wider class of wireless communication systems
with more complex transmission structures, more realistic channel models and more efficient receiver signal processing. This thesis investigates tensor modeling
approaches for multiple-antenna systems, channel equalization, signal separation and parametric channel estimation. New tensor decompositions, namely, the block-constrained PARAFAC and CONFAC decompositions, are developed and studied in terms of identifiability. First, the block-constrained PARAFAC decomposition is applied for a uniÂed tensor modeling of oversampled, DS-CDMA and OFDM
systems with application to blind multiuser equalization. This decomposition is also used for modeling multiple-antenna (MIMO) transmission systems with block space-time spreading and blind detection, which generalizes previous tensor-based MIMO transmission models. The CONFAC decomposition is then exploited for designing new MIMO-CDMA transmission schemes combining spatial diversity and multiplexing. Blind symbol/code/channel recovery is discussed from the uniqueness properties of this decomposition. This thesis also studies new applications
of third-order PARAFAC decomposition. A new space-time-frequency spreading system is proposed for multicarrier multiple-access systems, where this decomposition is used as a joint spreading and multiplexing tool at the transmitter using tridimensional spreading code with trilinear structure. Finally, we present a PARAFAC modeling approach for the parametric estimation of SIMO and MIMO multipath wireless channels with time-varying structure.
|
68 |
Numerical approximations with tensor-based techniques for high-dimensional problemsMora Jiménez, María 29 January 2024 (has links)
Tesis por compendio / [ES] La idea de seguir una secuencia de pasos para lograr un resultado deseado es inherente a la naturaleza humana: desde que empezamos a andar, siguiendo una receta de cocina o aprendiendo un nuevo juego de cartas. Desde la antigüedad se ha seguido este esquema para organizar leyes, corregir escritos, e incluso asignar diagnósticos. En matemáticas a esta forma de pensar se la denomina 'algoritmo'. Formalmente, un algoritmo es un conjunto de instrucciones definidas y no-ambiguas, ordenadas y finitas, que permite solucionar un problema. Desde pequeños nos enfrentamos a ellos cuando aprendemos a multiplicar o dividir, y a medida que crecemos, estas estructuras nos permiten resolver diferentes problemas cada vez más complejos: sistemas lineales, ecuaciones diferenciales, problemas de optimización, etcétera.
Hay multitud de algoritmos que nos permiten hacer frente a este tipo de problemas, como métodos iterativos, donde encontramos el famoso Método de Newton para buscar raíces; algoritmos de búsqueda para localizar un elemento con ciertas propiedades en un conjunto mayor; o descomposiciones matriciales, como la descomposición LU para resolver sistemas lineales. Sin embargo, estos enfoques clásicos presentan limitaciones cuando se enfrentan a problemas de grandes dimensiones, problema que se conoce como `la maldición de la dimensionalidad'.
El avance de la tecnología, el uso de redes sociales y, en general, los nuevos problemas que han aparecido con el desarrollo de la Inteligencia Artificial, ha puesto de manifiesto la necesidad de manejar grandes cantidades de datos, lo que requiere el diseño de nuevos mecanismos que permitan su manipulación. En la comunidad científica, este hecho ha despertado el interés por las estructuras tensoriales, ya que éstas permiten trabajar eficazmente con problemas de grandes dimensiones. Sin embargo, la mayoría de métodos clásicos no están pensados para ser empleados junto a estas operaciones, por lo que se requieren herramientas específicas que permitan su tratamiento, lo que motiva un proyecto como este.
El presente trabajo se divide de la siguiente manera: tras revisar algunas definiciones necesarias para su comprensión, en el Capítulo 3, se desarrolla la teoría de una nueva descomposición tensorial para matrices cuadradas. A continuación, en el Capítulo 4, se muestra una aplicación de dicha descomposición a grafos regulares y redes de mundo pequeño. En el Capítulo 5, se plantea una implementación eficiente del algoritmo que proporciona la nueva descomposición matricial, y se estudian como aplicación algunas EDP de orden dos. Por último, en los Capítulos 6 y 7 se exponen unas breves conclusiones y se enumeran algunas de las referencias consultadas, respectivamente. / [CA] La idea de seguir una seqüència de passos per a aconseguir un resultat desitjat és inherent a la naturalesa humana: des que comencem a caminar, seguint una recepta de cuina o aprenent un nou joc de cartes. Des de l'antiguitat s'ha seguit aquest esquema per a organitzar lleis, corregir escrits, i fins i tot assignar diagnòstics. En matemàtiques a aquesta manera de pensar se la denomina algorisme. Formalment, un algorisme és un conjunt d'instruccions definides i no-ambigües, ordenades i finites, que permet solucionar un problema. Des de xicotets ens enfrontem a ells quan aprenem a multiplicar o dividir, i a mesura que creixem, aquestes estructures ens permeten resoldre diferents problemes cada vegada més complexos: sistemes lineals, equacions diferencials, problemes d'optimització, etcètera.
Hi ha multitud d'algorismes que ens permeten fer front a aquesta mena de problemes, com a mètodes iteratius, on trobem el famós Mètode de Newton per a buscar arrels; algorismes de cerca per a localitzar un element amb unes certes propietats en un conjunt major; o descomposicions matricials, com la descomposició DL. per a resoldre sistemes lineals. No obstant això, aquests enfocaments clàssics presenten limitacions quan s'enfronten a problemes de grans dimensions, problema que es coneix com `la maledicció de la dimensionalitat'.
L'avanç de la tecnologia, l'ús de xarxes socials i, en general, els nous problemes que han aparegut amb el desenvolupament de la Intel·ligència Artificial, ha posat de manifest la necessitat de manejar grans quantitats de dades, la qual cosa requereix el disseny de nous mecanismes que permeten la seua manipulació. En la comunitat científica, aquest fet ha despertat l'interés per les estructures tensorials, ja que aquestes permeten treballar eficaçment amb problemes de grans dimensions. No obstant això, la majoria de mètodes clàssics no estan pensats per a ser emprats al costat d'aquestes operacions, per la qual cosa es requereixen eines específiques que permeten el seu tractament, la qual cosa motiva un projecte com aquest.
El present treball es divideix de la següent manera: després de revisar algunes definicions necessàries per a la seua comprensió, en el Capítol 3, es desenvolupa la teoria d'una nova descomposició tensorial per a matrius quadrades. A continuació, en el Capítol 4, es mostra una aplicació d'aquesta descomposició a grafs regulars i xarxes de món xicotet. En el Capítol 5, es planteja una implementació eficient de l'algorisme que proporciona la nova descomposició matricial, i s'estudien com a aplicació algunes EDP d'ordre dos. Finalment, en els Capítols 6 i 7 s'exposen unes breus conclusions i s'enumeren algunes de les referències consultades, respectivament. / [EN] The idea of following a sequence of steps to achieve a desired result is inherent in human nature: from the moment we start walking, following a cooking recipe or learning a new card game. Since ancient times, this scheme has been followed to organize laws, correct writings, and even assign diagnoses. In mathematics, this way of thinking is called an algorithm. Formally, an algorithm is a set of defined and unambiguous instructions, ordered and finite, that allows for solving a problem. From childhood, we face them when we learn to multiply or divide, and as we grow, these structures will enable us to solve different increasingly complex problems: linear systems, differential equations, optimization problems, etc.
There is a multitude of algorithms that allow us to deal with this type of problem, such as iterative methods, where we find the famous Newton Method to find roots; search algorithms to locate an element with specific properties in a more extensive set; or matrix decompositions, such as the LU decomposition to solve some linear systems. However, these classical approaches have limitations when faced with large-dimensional problems, a problem known as the `curse of dimensionality'.
The advancement of technology, the use of social networks and, in general, the new problems that have appeared with the development of Artificial Intelligence, have revealed the need to handle large amounts of data, which requires the design of new mechanisms that allow its manipulation. This fact has aroused interest in the scientific community in tensor structures since they allow us to work efficiently with large-dimensional problems. However, most of the classic methods are not designed to be used together with these operations, so specific tools are required to allow their treatment, which motivates work like this.
This work is divided as follows: after reviewing some definitions necessary for its understanding, in Chapter 3, the theory of a new tensor decomposition for square matrices is developed. Next, Chapter 4 shows an application of said decomposition to regular graphs and small-world networks. In Chapter 5, an efficient implementation of the algorithm provided by the new matrix decomposition is proposed, and some order two PDEs are studied as an application. Finally, Chapters 6 and 7 present some brief conclusions and list some of the references consulted. / María Mora Jiménez acknowledges funding from grant (ACIF/2020/269) funded by the
Generalitat Valenciana and the European Social Found / Mora Jiménez, M. (2023). Numerical approximations with tensor-based techniques for high-dimensional problems [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/202604 / Compendio
|
69 |
Análise de carteiras em tempo discreto / Discrete time portfolio analysisKato, Fernando Hideki 14 April 2004 (has links)
Nesta dissertação, o modelo de seleção de carteiras de Markowitz será estendido com uma análise em tempo discreto e hipóteses mais realísticas. Um produto tensorial finito de densidades Erlang será usado para aproximar a densidade de probabilidade multivariada dos retornos discretos uniperiódicos de ativos dependentes. A Erlang é um caso particular da distribuição Gama. Uma mistura finita pode gerar densidades multimodais não-simétricas e o produto tensorial generaliza este conceito para dimensões maiores. Assumindo que a densidade multivariada foi independente e identicamente distribuída (i.i.d.) no passado, a aproximação pode ser calibrada com dados históricos usando o critério da máxima verossimilhança. Este é um problema de otimização em larga escala, mas com uma estrutura especial. Assumindo que esta densidade multivariada será i.i.d. no futuro, então a densidade dos retornos discretos de uma carteira de ativos com pesos não-negativos será uma mistura finita de densidades Erlang. O risco será calculado com a medida Downside Risk, que é convexa para determinados parâmetros, não é baseada em quantis, não causa a subestimação do risco e torna os problemas de otimização uni e multiperiódico convexos. O retorno discreto é uma variável aleatória multiplicativa ao longo do tempo. A distribuição multiperiódica dos retornos discretos de uma seqüência de T carteiras será uma mistura finita de distribuições Meijer G. Após uma mudança na medida de probabilidade para a composta média, é possível calcular o risco e o retorno, que levará à fronteira eficiente multiperiódica, na qual cada ponto representa uma ou mais seqüências ordenadas de T carteiras. As carteiras de cada seqüência devem ser calculadas do futuro para o presente, mantendo o retorno esperado no nível desejado, o qual pode ser função do tempo. Uma estratégia de alocação dinâmica de ativos é refazer os cálculos a cada período, usando as novas informações disponíveis. Se o horizonte de tempo tender a infinito, então a fronteira eficiente, na medida de probabilidade composta média, tenderá a um único ponto, dado pela carteira de Kelly, qualquer que seja a medida de risco. Para selecionar um dentre vários modelos de otimização de carteira, é necessário comparar seus desempenhos relativos. A fronteira eficiente de cada modelo deve ser traçada em seu respectivo gráfico. Como os pesos dos ativos das carteiras sobre estas curvas são conhecidos, é possível traçar todas as curvas em um mesmo gráfico. Para um dado retorno esperado, as carteiras eficientes dos modelos podem ser calculadas, e os retornos realizados e suas diferenças ao longo de um backtest podem ser comparados. / In this thesis, Markowitzs portfolio selection model will be extended by means of a discrete time analysis and more realistic hypotheses. A finite tensor product of Erlang densities will be used to approximate the multivariate probability density function of the single-period discrete returns of dependent assets. The Erlang is a particular case of the Gamma distribution. A finite mixture can generate multimodal asymmetric densities and the tensor product generalizes this concept to higher dimensions. Assuming that the multivariate density was independent and identically distributed (i.i.d.) in the past, the approximation can be calibrated with historical data using the maximum likelihood criterion. This is a large-scale optimization problem, but with a special structure. Assuming that this multivariate density will be i.i.d. in the future, then the density of the discrete returns of a portfolio of assets with nonnegative weights will be a finite mixture of Erlang densities. The risk will be calculated with the Downside Risk measure, which is convex for certain parameters, is not based on quantiles, does not cause risk underestimation and makes the single and multiperiod optimization problems convex. The discrete return is a multiplicative random variable along the time. The multiperiod distribution of the discrete returns of a sequence of T portfolios will be a finite mixture of Meijer G distributions. After a change of the distribution to the average compound, it is possible to calculate the risk and the return, which will lead to the multiperiod efficient frontier, where each point represents one or more ordered sequences of T portfolios. The portfolios of each sequence must be calculated from the future to the present, keeping the expected return at the desired level, which can be a function of time. A dynamic asset allocation strategy is to redo the calculations at each period, using new available information. If the time horizon tends to infinite, then the efficient frontier, in the average compound probability measure, will tend to only one point, given by the Kellys portfolio, whatever the risk measure is. To select one among several portfolio optimization models, it is necessary to compare their relative performances. The efficient frontier of each model must be plotted in its respective graph. As the weights of the assets of the portfolios on these curves are known, it is possible to plot all curves in the same graph. For a given expected return, the efficient portfolios of the models can be calculated, and the realized returns and their differences along a backtest can be compared.
|
70 |
Análise de carteiras em tempo discreto / Discrete time portfolio analysisFernando Hideki Kato 14 April 2004 (has links)
Nesta dissertação, o modelo de seleção de carteiras de Markowitz será estendido com uma análise em tempo discreto e hipóteses mais realísticas. Um produto tensorial finito de densidades Erlang será usado para aproximar a densidade de probabilidade multivariada dos retornos discretos uniperiódicos de ativos dependentes. A Erlang é um caso particular da distribuição Gama. Uma mistura finita pode gerar densidades multimodais não-simétricas e o produto tensorial generaliza este conceito para dimensões maiores. Assumindo que a densidade multivariada foi independente e identicamente distribuída (i.i.d.) no passado, a aproximação pode ser calibrada com dados históricos usando o critério da máxima verossimilhança. Este é um problema de otimização em larga escala, mas com uma estrutura especial. Assumindo que esta densidade multivariada será i.i.d. no futuro, então a densidade dos retornos discretos de uma carteira de ativos com pesos não-negativos será uma mistura finita de densidades Erlang. O risco será calculado com a medida Downside Risk, que é convexa para determinados parâmetros, não é baseada em quantis, não causa a subestimação do risco e torna os problemas de otimização uni e multiperiódico convexos. O retorno discreto é uma variável aleatória multiplicativa ao longo do tempo. A distribuição multiperiódica dos retornos discretos de uma seqüência de T carteiras será uma mistura finita de distribuições Meijer G. Após uma mudança na medida de probabilidade para a composta média, é possível calcular o risco e o retorno, que levará à fronteira eficiente multiperiódica, na qual cada ponto representa uma ou mais seqüências ordenadas de T carteiras. As carteiras de cada seqüência devem ser calculadas do futuro para o presente, mantendo o retorno esperado no nível desejado, o qual pode ser função do tempo. Uma estratégia de alocação dinâmica de ativos é refazer os cálculos a cada período, usando as novas informações disponíveis. Se o horizonte de tempo tender a infinito, então a fronteira eficiente, na medida de probabilidade composta média, tenderá a um único ponto, dado pela carteira de Kelly, qualquer que seja a medida de risco. Para selecionar um dentre vários modelos de otimização de carteira, é necessário comparar seus desempenhos relativos. A fronteira eficiente de cada modelo deve ser traçada em seu respectivo gráfico. Como os pesos dos ativos das carteiras sobre estas curvas são conhecidos, é possível traçar todas as curvas em um mesmo gráfico. Para um dado retorno esperado, as carteiras eficientes dos modelos podem ser calculadas, e os retornos realizados e suas diferenças ao longo de um backtest podem ser comparados. / In this thesis, Markowitzs portfolio selection model will be extended by means of a discrete time analysis and more realistic hypotheses. A finite tensor product of Erlang densities will be used to approximate the multivariate probability density function of the single-period discrete returns of dependent assets. The Erlang is a particular case of the Gamma distribution. A finite mixture can generate multimodal asymmetric densities and the tensor product generalizes this concept to higher dimensions. Assuming that the multivariate density was independent and identically distributed (i.i.d.) in the past, the approximation can be calibrated with historical data using the maximum likelihood criterion. This is a large-scale optimization problem, but with a special structure. Assuming that this multivariate density will be i.i.d. in the future, then the density of the discrete returns of a portfolio of assets with nonnegative weights will be a finite mixture of Erlang densities. The risk will be calculated with the Downside Risk measure, which is convex for certain parameters, is not based on quantiles, does not cause risk underestimation and makes the single and multiperiod optimization problems convex. The discrete return is a multiplicative random variable along the time. The multiperiod distribution of the discrete returns of a sequence of T portfolios will be a finite mixture of Meijer G distributions. After a change of the distribution to the average compound, it is possible to calculate the risk and the return, which will lead to the multiperiod efficient frontier, where each point represents one or more ordered sequences of T portfolios. The portfolios of each sequence must be calculated from the future to the present, keeping the expected return at the desired level, which can be a function of time. A dynamic asset allocation strategy is to redo the calculations at each period, using new available information. If the time horizon tends to infinite, then the efficient frontier, in the average compound probability measure, will tend to only one point, given by the Kellys portfolio, whatever the risk measure is. To select one among several portfolio optimization models, it is necessary to compare their relative performances. The efficient frontier of each model must be plotted in its respective graph. As the weights of the assets of the portfolios on these curves are known, it is possible to plot all curves in the same graph. For a given expected return, the efficient portfolios of the models can be calculated, and the realized returns and their differences along a backtest can be compared.
|
Page generated in 0.0947 seconds