21 |
Resource allocation and time-frequency modulation for power line communicationColen, Guilherme Ribeiro 31 March 2016 (has links)
Submitted by Renata Lopes (renatasil82@gmail.com) on 2016-07-28T20:18:01Z
No. of bitstreams: 1
guilhermeribeirocolen.pdf: 4525385 bytes, checksum: e90d041d33c901d139d8476b96e02078 (MD5) / Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2016-07-29T11:52:52Z (GMT) No. of bitstreams: 1
guilhermeribeirocolen.pdf: 4525385 bytes, checksum: e90d041d33c901d139d8476b96e02078 (MD5) / Made available in DSpace on 2016-07-29T11:52:52Z (GMT). No. of bitstreams: 1
guilhermeribeirocolen.pdf: 4525385 bytes, checksum: e90d041d33c901d139d8476b96e02078 (MD5)
Previous issue date: 2016-03-31 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Esta tese concentra-se na redução da complexidade computacional e na necessidade de
largura de banda associada com a utilização de técnicas de alocação de recursos em sistemas
de comuniação via rede elétrica (power line communication – PLC) com base no
esquema de multiplexação por divisão ortogonal na frequência (orthogonal frequency division
multiplexing – OFDM). Neste contexto, é introduzida a técnica sub-ótima chamada
de temporal compressive resource allocation (TCRA). Esta técnica é capaz de explorar
a relação existente entre microslots (exploração no domínio do tempo) para reduzir o
número de vezes por segundo que alocação de recursos é executada. Além disso, é proposto
um novo parâmetro, denominado de banda de coerência da relação sinal ruído
normalizada (normalized signal to noise ratio – nSNR) para informar precisamente a planicidade
da nSNR. A eficácia deste parâmetro é comparada com a banda de coerência.
Diante disto, sua modelagem estatística para ambientes in-home, outdoor de baixa tensão
e PLC-wireless é apresentada considerando distribuições de componentes individuais
e misturas de Gaussianas. Com base na definição da banda de coerência da nSNR, é descrita
a técnica sub-ótima denominada spectral compressive resource allocation (SCRA).
Ela explora a relação existente entre os sub-canais adjacentes (exploração no domínio da
frequência) para reduzir a dimensão do vector de nSNR, que é a principal informação de
entrada para a técnicas de alocação de recursos. Com base no fato de que a geometria
de tiles associadas com a transformada de Fourier discreta limita os ganhos associados
com o uso da técnica SCRA em conjunto com o esquema OFDM, é introduzido pela primeira
vez o esquema chamado multiplexação por divisão ortogonal no tempo-frequência
(orthogonal time-frequency division multiplexing – OTFDM). Este esquema se baseia na
transformada ortogonal de Stockwell discreta para oferecer diferentes geometrias de tiles
e funciona tanto para comunicação de dados em banda de base quanto em banda passante.
Os resultados numéricos baseados em canais PLC medidos e no uso de protótipo
de transceptores PLC mostram que as técnicas TCRA e SCRA podem trocar redução
de complexidade computacional por perda de taxa de transmissão e que economia de
complexidade computacional relevante pode ser realizada com baixas perdas na taxa de
transmissão. Ademais, os resultados numéricos mostram que o esquema OTFDM pode
ser superado pelo esquema de OFDM se a informação de estado de canal não está disponível
no lado do transmissor. No entanto, a disponibilidade de tais informações no lado do
transmissor permite a utilização do esquema OTFDM em conjunto com a técnica SCRA
atingir uma melhoria notável em comparação com o esquema OFDM trabalhando com a
técnica SCRA. / This dissertation focuses on the computational complexity reduction and on the need for
network bandwidth associated with the use of resource allocation techniques in power
line communication (PLC) system based on orthogonal frequency division multiplexing
(OFDM) scheme. In this context, the so-called temporal compressive resource allocation
(TCRA) technique, which is a sub-optimal technique, is introduced. The TCRA is capable
of exploiting the existing relationship among microslots (time domain exploitation) to reduce
the number of times per second the resource allocation technique is executed. Also, a
noval parameter, called nSNR coherence bandwidth, that precisely informs the flatness of
the normalized signal to noise ratio (nSNR) is proposed. The effectiveness of this parameter
is compared to the coherence bandwidth. Also, its statistical modeling for in-home,
outdoor and low-voltage, and hybrid PLC-wireless channels with single-component and
Gaussian mixture distributions is presented. Based on the nSNR coherence bandwidth
definition, the spectral compressive resource allocation (SCRA) technique, which is a suboptimal
technique, is outlined. The SCRA technique exploits the existing relationship
among adjacent subchannels (frequency domain exploitation) to reduce the dimensionality
of the nSNR vector, which is the main feeding information for the resource allocation
technique. Based on the fact that the geometry of the tiles associated with the discrete
Fourier transform limits the gains associated with the use of the SCRA together with the
OFDM scheme, the so-called orthogonal time-frequency division multiplexing (OTFDM)
scheme is, for the first time, introduced. The OTDFM scheme, which is based on the
discrete orthogonal Stockwell transform, offers different tile geometries and works in both
baseband and passband data communications. Numerical results based on measured
PLC channels and the use of prototype of PLC transceivers show that TCRA and SCRA
techniques can trade computational complexity reduction with data rate loss and relevant
computational complexity savings may be accomplished with low data rate losses.
Moreover, the numerical results show that the OTFDM scheme may be outperformed
by the OFDM scheme if channel state information is not available at the transmitter
side; however, the availability of such information at the transmitter side allow the use
of the OTFDM scheme together with the SCRAs achieve remarkable improvement in
comparison with OFDM scheme working with the SCRA technique.
|
22 |
Algoritmos online baseados em vetores suporte para regressão clássica e ortogonalSouza, Roberto Carlos Soares Nalon Pereira 21 February 2013 (has links)
Submitted by Renata Lopes (renatasil82@gmail.com) on 2017-05-30T20:07:56Z
No. of bitstreams: 1
robertocarlossoaresnalonpereirasouza.pdf: 1346845 bytes, checksum: e248f967f42f4ef763b613dc39ed0649 (MD5) / Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2017-06-01T11:51:04Z (GMT) No. of bitstreams: 1
robertocarlossoaresnalonpereirasouza.pdf: 1346845 bytes, checksum: e248f967f42f4ef763b613dc39ed0649 (MD5) / Made available in DSpace on 2017-06-01T11:51:04Z (GMT). No. of bitstreams: 1
robertocarlossoaresnalonpereirasouza.pdf: 1346845 bytes, checksum: e248f967f42f4ef763b613dc39ed0649 (MD5)
Previous issue date: 2013-02-21 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Neste trabalho apresenta-se uma nova formulação para regressão ortogonal. O problema é definido como a minimização do risco empírico em relação a uma função de perda com tubo desenvolvida para regressão ortogonal, chamada ρ-insensível. Um algoritmo para resolver esse problema é proposto, baseado na abordagem da descida do gradiente estocástica. Quando formulado em variáveis duais o método permite a introdução de funções kernel e flexibilidade do tubo. Até onde se sabe, este é o primeiro método que permite a introdução de kernels, através do chamado “kernel-trick”, para regressão ortogonal. Apresenta-se ainda um algoritmo para regressão clássica que usa a função de perda ε-insensível e segue também a abordagem da descida do gradiente. Para esse algo ritmo apresenta-se uma prova de convergência que garante um número finito de correções. Finalmente, introduz-se uma estratégia incremental que pode ser usada acoplada com ambos os algoritmos para obter soluções esparsas e também uma aproximação para o “tubo mínimo”que contém os dados. Experimentos numéricos são apresentados e os resultados comparados a outros métodos da literatura. / In this work, we introduce a new formulation for orthogonal regression. The problem
is defined as minimization of the empirical risk with respect to a tube loss function de
veloped for orthogonal regression, named ρ-insensitive. The method is constructed via
an stochastic gradient descent approach. The algorithm can be used in primal or in dual
variables. The latter formulation allows the introduction of kernels and soft margins. To
the best of our knowledge, this is the first method that allows the introduction of kernels
via the so-called “kernel-trick” for orthogonal regression. Also, we present an algorithm
to solve the classical regression problem using the ε-insensitive loss function. A conver
gence proof that guarantees a finite number of updates is presented for this algorithm.
In addition, an incremental strategy algorithm is introduced, which can be used to find
sparse solutions and also an approximation to the “minimal tube” containing the data.
Numerical experiments are shown and the results compared with other methods.
|
23 |
Modelos black-litterman e GARCH ortogonal para uma carteira de títulos do tesouro nacional / Black-Litterman and ortogonal GARCH models for a portfolio of bonds issued by the National TreasuryLobarinhas, Roberto Beier 02 March 2012 (has links)
Uma grande dificuldade da gestão financeira é conseguir associar métodos quantitativos às formas tradicionais de gestão, em um único arranjo. O estilo tradicional de gestão tende a não crer, na devida medida, que métodos quantitativos sejam capazes de captar toda sua visão e experiência, ao passo que analistas quantitativos tendem a subestimar a importância do enfoque tradicional, gerando flagrante desarmonia e ineficiência na análise de risco. Um modelo que se propõe a diminuir a distância entre essas visões é o modelo Black-Litterman. Mais especificamente, propõe-se a diminuir os problemas enfrentados na aplicação da teoria moderna de carteiras e, em particular, os decorrentes da aplicação do modelo de Markowitz. O modelo de Markowitz constitui a base da teoria de carteiras há mais de meio século, desde a publicação do artigo Portfolio Selection [Mar52], entretanto, apesar do papel de destaque da abordagem média-variância para o meio acadêmico, várias dificuldades aparecem quando se tenta utilizá-lo na prática, e talvez, por esta razão, seu impacto no mundo dos investimentos tem sido bastante limitado. Apesar das desvantagens na utilização do modelo de média-variância de Markowitz, a idéia de maximizar o retorno, para um dado nível de risco é tão atraente para investidores, que a busca por modelos com melhor comportamento continuou e é neste contexto que o modelo Black-Litterman surgiu. Em 1992, Fischer Black e Robert Litterman publicam o artigo Portfolio Optimization [Bla92], fazendo considerações sobre o papel de pouco destaque da alocação quantitativa de ativos, e lançam o modelo conhecido por Black-Litterman. Uma grande diferença entre o modelo Black-Litterman e um modelo média-variância tradicional é que, enquanto o segundo gera pesos em uma carteira a partir de um processo de otimização, o modelo Black-Litterman parte de uma carteira de mercado em equilíbrio de longo prazo (CAPM). Outro ponto de destaque do modelo é ser capaz de fornecer uma maneira clara para que investidores possam expressar suas visões de curto prazo e, mais importante, fornece uma estrutura para combinar de forma consistente a informação do equilíbrio de longo prazo (priori) com a visão do investidor (curto prazo), gerando um conjunto de retornos esperados, a partir do qual os pesos em cada ativo são fornecidos. Para a escolha do método de estimação dos parâmetros, levou-se em consideração o fato de que matrizes de grande dimensão têm um papel importante na avaliação de investimentos, uma vez que o risco de uma carteira é fundamentalmente determinado pela matriz de covariância de seus ativos. Levou-se também em consideração que seria desejável utilizar um modelo flexível ao aumento do número de ativos. Um modelo capaz de cumprir este papel é o GARCH ortogonal, pois este pode gerar matrizes de covariâncias do modelo original a partir de algumas poucas volatilidades univariadas, sendo, portanto, um método computacionalmente bastante simples. De fato, as variâncias e correlações são transformações de duas ou três variâncias de fatores ortogonais obtidas pela estimação GARCH. Os fatores ortogonais são obtidos por componentes principais. A decomposição da variância do sistema em fatores de risco permite quantificar a variabilidade que cada fator de risco traz, o que é de grande relevância, pois o gestor de risco poderá direcionar mais facilmente sua atenção para os fatores mais relevantes. Ressalta-se também que a ideia central da ortogonalização é utilizar um espaço reduzido de componentes. Neste modelo de dimensão reduzida, suficientes fatores de risco serão considerados, assim, os demais movimentos, ou seja, aqueles não capturados por estes fatores, serão considerados ruídos insignificantes para este sistema. Não obstante, a precisão, ao desconsiderar algumas componentes, irá depender de o número de componentes principais ser suficiente para explicar grande parte da variação do sistema. Logo, o método funcionará melhor quando a análise de componentes principais funcionar melhor, ou seja, em estruturas a termo e outros sistemas altamente correlacionados. Cabe mencionar que o GARCH ortogonal continua igualmente útil e viável quando pretende-se gerar matriz de covariâncias de fatores de risco distintos, isto é, tanto dos altamente correlacionados, quanto daqueles pouco correlacionados. Neste caso, basta realizar a análise de componentes principais em grupos correlacionados. Feito isto, obtêm-se as matrizes de covariâncias utilizando a estimação GARCH. Em seguida faz-se a combinação de todas as matrizes de covariâncias, gerando a matriz de covariâncias do sistema original. A estimação GARCH foi escolhida pois esta é capaz de captar os principais fatos estilizados que caracterizam séries temporais financeiras. Entende-se por fatos estilizados padrões estatísticos observados empiricamente, que, acredita-se serem comuns a um grande número de séries temporais. Séries financeiras com suficiente alta frequência (observações intraday e diárias) costumam apresentar tais características. Este modelo foi utilizado para a estimação dos retornos e, com isso, obtivemos todas as estimativas para que, com o modelo B-L, pudéssemos gerar uma carteira ótima em um instante de tempo inicial. Em seguida, faremos previsões, obtendo carteiras para as semanas seguintes. Por fim, mostraremos que a associação do modelo B-L e da estimação GARCH ortogonal pode gerar resultados bastante satisfatórios e, ao mesmo tempo, manter o modelo simples e gerar resultados coerentes com a intuição. Este estudo se dará sobre retornos de títulos de renda fixa, mais especificamente, títulos emitidos pelo Tesouro Nacional no mercado brasileiro. Tanto a escolha do modelo B-L, quanto a escolha por utilizar uma carteira de títulos emitidos pelo Tesouro Nacional tiveram como motivação o objetivo de aproximar ferramentas estatísticas de aplicações em finanças, em particular, títulos públicos federais emitidos em mercado, que têm se tornado cada vez mais familiares aos investidores pessoas físicas, sobretudo através do programa Tesouro Direto. Ao fazê-lo, espera-se que este estudo traga informações úteis tanto para investidores, quanto para gestores de dívida, uma vez que o modelo média-variância presta-se tanto àqueles que adquirem títulos, buscando, portanto, maximizar retorno para um dado nível de risco, quanto para aqueles que emitem títulos, e que, portanto, buscam reduzir seus custos de emissão a níveis prudenciais de risco. / One major challenge to financial management resides in associating traditional management with quantitative methods. Traditional managers tend to be skeptical about the quantitative methods contributions, whereas quantitative analysts tend to disregard the importance of the traditional view, creating clear disharmony and inefficiency in the risk management process. A model that seeks to diminish the distance between these two views is the Black-Litterman model (BLM). More specifically, it comes as a solution to difficulties faced when using modern portfolio in practice, particularly those derived from the usage of the Markowitz model. Although the Markowitz model has constituted the basis of portfolio theory for over half century, since the publication of the article Portfolio Selection [Mar52], its impact on the investment world has been quite limited. The Markowitz model addresses the most central objectives of an investment: maximizing the expected return, for a given level of risk. Even though it has had a standout role in the mean-average approach to academics, several difficulties arise when one attempts to make use of it in practice. Despite the disadvantages of its practical usage, the idea of maximizing the return for a given level of risk is so appealing to investors, that the search for models with better behavior continued, and is in this context that the Black-Litterman model came out. In 1992, Fischer Black and Robert Litterman wrote an article on the Black-Litterman model. One intrinsic difference between the BLM and a traditional mean-average one is that, while the second provides the weights of the assets in a portfolio out of a optimization routine, the BLM has its starting point at the long-run equilibrium market portfolio(CAPM). Another highlighting point of the BLM is the ability to provide one clear structucture that is able to combine the long term equilibrium information with the investors views, providing a set of expected returns, which, together, will be the input to generate the weights on the assets. As far as the estimation process is concerned, and for the purpose of choosing the most appropriate model, it was taken into consideration the fact that the risk of a portfolio is determined by the covariation matrix of its assets and, being so, matrices with large dimensions play an important role in the analysis of investments. Whereas, provided the application under study, it is desirable to have a model that is able to carry out the analysis for a considerable number of assets. For these reasons, the Orthogonal GARCH was selected, once it can generate the matrix of covariation of the original system from just a few univariate volatilities, and for this reason, it is a computationally simple method. The orthogonal factors are obtained with principal components analysis. Decomposing the variance of the system into risk factors is highly important, once it allows the risk manager to focus separately on each relevant source of risk. The main idea behind the orthogonalization consists in working with a reduced dimension of components. In this kind of model, sufficient risk factors are considered, thus, the variability not perceived by the model will be considered insigficant noise to the system. Nevertheless, the precision, when not using all the components, will depend on the number of components be sufficient to explain the major part of the variability. Moreover, the model will provide reasonable results depending on principal component analysis performing properly as well, what will be more likely to happen, in highly correlated systems. It is worthy of note that the Orthogonal GARCH is equally useful and feasible when one intends to analyse a portfolio consisting of assets across various types of risk, it means, a system which is not highly correlated. It is common to have such a portfolio, with, for instance, currency rates, stocks, fixed income and commodities. In order to make it to perform properly, it is necessary to separate groups with the same kind of risk and then carry out the principal component analysis by group and then merge the covariance matrices, producing the covariance matrix of the original system. To work together with the orthogonalization method, the GARCH model was chosen because it is able to draw the main stylized facts which characterize financial time series. Stylized facts are statistical patterns empirically observed, which are believed to be present in a number of time series. Financial time series which sufficient high frequency (intraday, daily and even weekly) usually present such behavior. For estimating returns purposes, it was used a ARMA model, and together with the covariance matrix estimation, we have all the parameters needed to perform the BLM study, coming out, in the end, with the optimal portfolio in a given initial time. In addition, we will make forecasts with the GARCH model, obtaining optimal portfolio for the following weeks. We will show that the association of the BLM with the Orthogonal GARCH model can generate satisfactory and coherent with intuition results and, at the same time, keeping the model simple. Our application is on fixed income returns, more specifically, returns of bonds issued in the domestic market by the Brazilian National Treasury. The motivation of this work was to put together statistical tolls and finance uses and applications, more specifically those related to the bonds issued by the National Treasuy, which have become more and more popular due to the \"Tesouro Direto\" program. In conclusion, this work aims to bring useful information either for investors or to debt managers, once the mean-variance model can be useful for those who want to maximize return at a given level or risk as for those who issue bonds, and, thus, seek to reduce their issuance costs at prudential levels of risk.
|
24 |
Diagnóstico de falhas em motores de indução trifásicos baseado em decomposição em componentes ortogonais e aprendizagem de máquinas / Fault diagnosis in three-phase induction motors based on orthogonal component decomposition and machine learningLiboni, Luisa Helena Bartocci 05 June 2017 (has links)
O objetivo principal desta tese consiste no desenvolvimento de ferramentas matemáticas e computacionais dedicadas a um sistema de diagnóstico de barras quebradas no rotor de Motores de Indução Trifásicos. O sistema proposto é baseado em um método matemático de decomposição de sinais elétricos, denominado de Decomposição em Componentes Ortogonais, e ferramentas de aprendizagem de máquinas. Como uma das principais contribuições desta pesquisa, realizou-se um aprofundamento do entendimento da técnica de Decomposição em Componentes Ortogonais e de sua aplicabilidade como ferramenta de processamento de sinais para sistemas elétricos e eletromecânicos. Redes Neurais Artificiais e Support Vector Machines, tanto para classificação multi-classes quanto para detecção de novidades, foram configurados para receber índices advindos do processamento de sinais elétricos de motores, e a partir deles, identificar os padrões normais e os padrões com falhas. Além disso, a severidade da falha também é diagnosticada, a qual é representada pelo número de barras quebradas no rotor. Para a avaliação da metodologia, considerou-se o acionamento de motores de indução pela tensão de alimentação da rede e por inversores de frequência, operando sob diversas condições de torque de carga. Os resultados alcançados demonstram a eficácia das ferramentas matemáticas e computacionais desenvolvidas para o sistema de diagnóstico, sendo que os índices criados se mostraram altamente correlacionados com o fenômeno da falha. Mais especificamente, foi possível criar índices monotônicos com a severidade da falha e com baixa variabilidade, demonstrando-se que as ferramentas são eficientes extratores de características. / This doctoral thesis consists of the development of mathematical and computational tools dedicated to a diagnostic system for broken rotor bars in Three Phase Induction Motors. The proposed system is based on a mathematical method for decomposing electrical signals, named the Orthogonal Components Decomposition, and machine learning tools. As one of the main contributions of this research, an in-depth investigation of the decomposition technique and its applicability as a signal processing tool for electrical and electromechanical systems was carried-out. Artificial Neural Networks and Support Vector Machines for multi-class classification and novelty detection were configured to receive indices derived from the processing of electrical signals and then identify normal motors and faulty motors. In addition, the fault severity is also diagnosed, which is represented by the number of broken rotor bars. Experimental data was tested in order to evaluate the proposed method. Signals were obtained from induction motors operating with different torque levels and driven either directly by the grid or by frequency inverters. The results demonstrate the effectiveness of the mathematical and computational tools developed for the diagnostic system since the indices created are highly correlated with the fault phenomenon. More specifically, it was possible to create monotonic indices with the fault severity and with low variability, what supports that the solution is an efficient fault-specific feature extractor.
|
25 |
Persistent memory and orthogonal persistence : a persistent heap design and its implementation for the Java virtual machine / Mem?ria persistente e persist?ncia ortogonal : um projeto heap persistente e sua implementa??o para a m?quina virtual JavaPerez, Taciano Dreckmann 03 May 2017 (has links)
Submitted by Caroline Xavier (caroline.xavier@pucrs.br) on 2017-07-03T15:03:25Z
No. of bitstreams: 1
TES_TACIANO_DRECKMANN_PEREZ_COMPLETO.pdf: 1779781 bytes, checksum: 2111ccea963be0eea76bdbb7d24321d9 (MD5) / Made available in DSpace on 2017-07-03T15:03:25Z (GMT). No. of bitstreams: 1
TES_TACIANO_DRECKMANN_PEREZ_COMPLETO.pdf: 1779781 bytes, checksum: 2111ccea963be0eea76bdbb7d24321d9 (MD5)
Previous issue date: 2017-05-03 / Sistemas computacionais da atualidade tradicionalmente separam mem?ria e armazenamento. Linguagens
de programa??o tipicamente refletem essa distin??o usando diferentes representa??es para
dados em mem?ria (ex. estruturas de dados, objetos) e armazenamento (ex. arquivos, bancos
de dados). A movimenta??o de dados entre esses dois n?veis e representa??es, bidirecionalmente,
compromete tanto a efici?ncia do programador quanto de execu??o dos programas. Tecnologias
recentes de memoria n?o-vol?til, tais como mem?ria de transi??o de fase, resistiva e magnetoresistiva,
possibilitam combinar mem?ria principal e armazenamento em uma ?nica entidade de mem?ria
persistente, abrindo caminho para abstra??es mais eficientes para lidar com persist?ncia de dados.
Essa tese de doutorado introduz uma abordagem de projeto para o ambiente de execu??o de
linguagens com ger?ncia autom?tica de mem?ria, baseado numa combina??o original de persist?ncia
ortogonal, programa??o para mem?ria persistente, persist?ncia por alcance, e transa??es com
atomicidade em caso de falha. Esta abordagem pode melhorar significativamente a produtividade do
programador e a efici?ncia de execu??o dos programas, uma vez que estruturas de dados em mem?ria
passam a ser persistentes de forma transparente, sem a necessidade de programar explicitamente o
armazenamento, e removendo a necessidade de cruzar fronteiras sem?nticas.
De forma a validar e demonstrar a abordagem proposta, esse trabalho tamb?m apresenta
JaphaVM, a primeira M?quina Virtual Java especificamente projetada para mem?ria persistente.
Resultados experimentais usando benchmarks e aplica??es reais demonstram que a JaphaVM, na
maioria dos casos, executa as mesmas opera??es cerca de uma a duas ordens de magnitude mais
rapidamente do que implementa??es equivalentes usando bancos de dados ou arquivos, e, ao mesmo
tempo, requer significativamente menos linhas de c?digo. / Current computer systems separate main memory from storage. Programming languages typically
reflect this distinction using different representations for data in memory (e.g. data structures,
objects) and storage (e.g. files, databases). Moving data back and forth between these different
layers and representations compromise both programming and execution efficiency. Recent nonvolatile
memory technologies, such as Phase-Change Memory, Resistive RAM, and Magnetoresistive
RAM make it possible to collapse main memory and storage into a single layer of persistent memory,
opening the way for simpler and more efficient programming abstractions for handling persistence.
This Ph.D. thesis introduces a design for the runtime environment for languages with automatic
memory management, based on an original combination of orthogonal persistence, persistent memory
programming, persistence by reachability, and lock-based failure-atomic transactions. Such design
can significantly increase programming and execution efficiency, as in-memory data structures are
transparently persistent, without the need for programmatic persistence handling, and removing the
need for crossing semantic boundaries.
In order to validate and demonstrate the proposed concepts, this work also presents JaphaVM,
the first Java Virtual Machine specifically designed for persistent memory. In experimental results
using benchmarks and real-world applications, JaphaVM in most cases executed the same operations
between one and two orders of magnitude faster than database- and file-based implementations,
while requiring significantly less lines of code.
|
26 |
Erros não detectáveis no processo de estimação de estado em sistemas elétricos de potência / Undetectable errors in power system state estimationFabio, Lizandra Castilho 28 July 2006 (has links)
Na tentativa de contornar os problemas ainda existentes para a detecção e identificação de erros grosseiros (EGs) no processo de estimação de estado em sistemas elétricos de potência (EESEP), realiza-se, neste trabalho, uma análise da formulação dos estimadores aplicados a sistemas elétricos de potência, em especial, o de mínimos quadrados ponderados, tendo em vista evidenciar as limitações dos mesmos para o tratamento de EGs. Em razão da dificuldade de detectar EGs em medidas pontos de alavancamento, foram também analisadas as metodologias desenvolvidas para identificação de medidas pontos de alavancamento. Através da formulação do processo de EESEP como um problema de álgebra linear, demonstra-se o porquê da impossibilidade de detectar EGs em determinadas medidas redundantes, sendo proposto, na seqüência, um método para identificação de medidas pontos de alavancamento. Para reduzir os efeitos maléficos dessas medidas no processo de EESEP verifica-se a possibilidade de aplicar outras técnicas estatísticas para o processamento de EGs, bem como técnicas para obtenção de uma matriz de ponderação adequada. / To overcome the problems still existent for gross errors (GEs) detection and identification in the process of power system state estimation (PSSE), the formulations of the estimators applied to power systems are analyzed, specially, the formulation of the weighted squares estimator. These analyses were performed to show the limitations of these estimators for GEs processing. As leverage points (LP) represent a problem for GEs processing, methodologies for LP identification were also verified. By means of the linear formulation of the PSSE process, the reason for the impossibility of GEs detection in some redundant measurements is shown and a method for LP identification is proposed. To minimize the bad effects of the LP to the PSSE process, the possibility of applying other statistic techniques for GEs processing, as well as techniques to estimate an weighting matrix are also analyzed.
|
27 |
Avaliação de desempenho do enlace reverso de redes celulares que utilizam a técnica CDMA com multiportadoras (MC-CDMA) em um canal rayleigh seletivo em frequência / Performance evaluation of the uplink of cellular networks that employ multicarrier CDMA technique (MC-CDMA) in a frequency selective rayleigh fading channelCarvajal Mora, Henry Ramiro, 1986- 11 September 2018 (has links)
Orientador: Celso de Almeida / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação / Made available in DSpace on 2018-09-11T21:24:05Z (GMT). No. of bitstreams: 1
CarvajalMora_HenryRamiro_M.pdf: 10096746 bytes, checksum: 558790b8f1575c8f3b46fe6c7418920d (MD5)
Previous issue date: 2014 / Resumo: Neste trabalho, é avaliado o desempenho do enlace reverso de redes celulares que utilizam a técnica de múltiplo acesso por divisão de código com multiportadoras (MC-CDMA) em termos da probabilidade de erro de bit média (BER) e da eficiência espectral média. O sistema de comunicações analisado utiliza a técnica MC-CDMA, um arranjo linear de antenas na estação rádio base, entrelaçamento em frequência, combinação de máxima razão (MRC), modulação adaptativa, controle de potência e um prefixo cíclico grande o suficiente para eliminar os efeitos da interferência intersimbólica (ISI) e da interferência entre portadoras (ICI). O cenário estudado considera a presença de interferência de múltiplo acesso (MAI) e interferência de co-canal (CCI). A caracterização do canal considera a presença de ruído aditivo gaussiano branco (AWGN), perda de propagação exponencial e desvanecimento lento e seletivo em frequência que segue a distribuição de Rayleigh. Neste contexto, expressões analíticas exatas e fechadas para a BER média tanto para a modulação BPSK, quanto para a modulação M-QAM são obtidas. A exatidão das expressões é validada através de simulações de Monte Carlo. Ademais, uma expressão para a eficiência espectral celular média é determinada, a qual é uma função do fator de reuso de canais, do incremento da largura de banda devido ao prefixo cíclico, do carregamento do sistema, do fator de espalhamento, dos raios da célula e da modulação utilizada. Os resultados indicam que utilizar um fator de reuso de canais de 1 é a maneira mais eficiente de usar o espectro. No entanto, esse fator de reuso é crítico em relação às taxas de transmissão. Ademais, evidenciando que a técnica de múltiplo acesso por divisão de frequências ortogonais (OFDMA) é um caso particular da técnica MC-CDMA, os resultados mostram que a máxima eficiência espectral média obtida com a técnica OFDMA é menor do que aquela obtida com a técnica MC-CDMA / Abstract: In this work the performance of cellular networks uplink is evaluated using the multicarrier-code division multiple access (MC-CDMA) technique in terms of the mean bit error rate (BER) and the mean spectral efficiency. The analyzed communications system is supposed to employ the MC-CDMA technique, a linear antenna array in the base station, frequency interleaving, maximal ratio combining (MRC), adaptive modulation, control power and a cyclic prefix large enough to eliminate the effects of intersymbol interference (ISI) and intercarrier interference (ICI). The studied scenario assumes the presence of multiple access interference (MAI) and co-channel interference (CCI). The channel characterizations considers the presence of additive white gaussian noise (AWGN), exponential path-loss and slow and frequency selective Rayleigh fading. In this context, exact and closed analytical expressions for the mean BER for both BPSK modulation, as for M-QAM modulation are obtained. The accuracy of the expressions is validated through Monte Carlo simulations. Also, an expression for the mean cellular spectral efficiency is determined, which is a function of the channel reuse factor, the bandwidth increases due to the cyclic prefix, the system load, the spreading factor, the cell radius and the modulation employed. The results show that using an unitary channel reuse factor of 1 is the most efficient way to use the spectrum. However, this reuse factor is critical in relation to transmission rates. Moreover, considering that the orthogonal frequency division multiple access (OFDMA) technique is a particular case of MC-CDMA, the results show that the maximum mean spectral efficiency achieved with the OFDMA technique is lower than that obtained with the MC-CDMA technique / Mestrado / Telecomunicações e Telemática / Mestre em Engenharia Elétrica
|
28 |
Modelos black-litterman e GARCH ortogonal para uma carteira de títulos do tesouro nacional / Black-Litterman and ortogonal GARCH models for a portfolio of bonds issued by the National TreasuryRoberto Beier Lobarinhas 02 March 2012 (has links)
Uma grande dificuldade da gestão financeira é conseguir associar métodos quantitativos às formas tradicionais de gestão, em um único arranjo. O estilo tradicional de gestão tende a não crer, na devida medida, que métodos quantitativos sejam capazes de captar toda sua visão e experiência, ao passo que analistas quantitativos tendem a subestimar a importância do enfoque tradicional, gerando flagrante desarmonia e ineficiência na análise de risco. Um modelo que se propõe a diminuir a distância entre essas visões é o modelo Black-Litterman. Mais especificamente, propõe-se a diminuir os problemas enfrentados na aplicação da teoria moderna de carteiras e, em particular, os decorrentes da aplicação do modelo de Markowitz. O modelo de Markowitz constitui a base da teoria de carteiras há mais de meio século, desde a publicação do artigo Portfolio Selection [Mar52], entretanto, apesar do papel de destaque da abordagem média-variância para o meio acadêmico, várias dificuldades aparecem quando se tenta utilizá-lo na prática, e talvez, por esta razão, seu impacto no mundo dos investimentos tem sido bastante limitado. Apesar das desvantagens na utilização do modelo de média-variância de Markowitz, a idéia de maximizar o retorno, para um dado nível de risco é tão atraente para investidores, que a busca por modelos com melhor comportamento continuou e é neste contexto que o modelo Black-Litterman surgiu. Em 1992, Fischer Black e Robert Litterman publicam o artigo Portfolio Optimization [Bla92], fazendo considerações sobre o papel de pouco destaque da alocação quantitativa de ativos, e lançam o modelo conhecido por Black-Litterman. Uma grande diferença entre o modelo Black-Litterman e um modelo média-variância tradicional é que, enquanto o segundo gera pesos em uma carteira a partir de um processo de otimização, o modelo Black-Litterman parte de uma carteira de mercado em equilíbrio de longo prazo (CAPM). Outro ponto de destaque do modelo é ser capaz de fornecer uma maneira clara para que investidores possam expressar suas visões de curto prazo e, mais importante, fornece uma estrutura para combinar de forma consistente a informação do equilíbrio de longo prazo (priori) com a visão do investidor (curto prazo), gerando um conjunto de retornos esperados, a partir do qual os pesos em cada ativo são fornecidos. Para a escolha do método de estimação dos parâmetros, levou-se em consideração o fato de que matrizes de grande dimensão têm um papel importante na avaliação de investimentos, uma vez que o risco de uma carteira é fundamentalmente determinado pela matriz de covariância de seus ativos. Levou-se também em consideração que seria desejável utilizar um modelo flexível ao aumento do número de ativos. Um modelo capaz de cumprir este papel é o GARCH ortogonal, pois este pode gerar matrizes de covariâncias do modelo original a partir de algumas poucas volatilidades univariadas, sendo, portanto, um método computacionalmente bastante simples. De fato, as variâncias e correlações são transformações de duas ou três variâncias de fatores ortogonais obtidas pela estimação GARCH. Os fatores ortogonais são obtidos por componentes principais. A decomposição da variância do sistema em fatores de risco permite quantificar a variabilidade que cada fator de risco traz, o que é de grande relevância, pois o gestor de risco poderá direcionar mais facilmente sua atenção para os fatores mais relevantes. Ressalta-se também que a ideia central da ortogonalização é utilizar um espaço reduzido de componentes. Neste modelo de dimensão reduzida, suficientes fatores de risco serão considerados, assim, os demais movimentos, ou seja, aqueles não capturados por estes fatores, serão considerados ruídos insignificantes para este sistema. Não obstante, a precisão, ao desconsiderar algumas componentes, irá depender de o número de componentes principais ser suficiente para explicar grande parte da variação do sistema. Logo, o método funcionará melhor quando a análise de componentes principais funcionar melhor, ou seja, em estruturas a termo e outros sistemas altamente correlacionados. Cabe mencionar que o GARCH ortogonal continua igualmente útil e viável quando pretende-se gerar matriz de covariâncias de fatores de risco distintos, isto é, tanto dos altamente correlacionados, quanto daqueles pouco correlacionados. Neste caso, basta realizar a análise de componentes principais em grupos correlacionados. Feito isto, obtêm-se as matrizes de covariâncias utilizando a estimação GARCH. Em seguida faz-se a combinação de todas as matrizes de covariâncias, gerando a matriz de covariâncias do sistema original. A estimação GARCH foi escolhida pois esta é capaz de captar os principais fatos estilizados que caracterizam séries temporais financeiras. Entende-se por fatos estilizados padrões estatísticos observados empiricamente, que, acredita-se serem comuns a um grande número de séries temporais. Séries financeiras com suficiente alta frequência (observações intraday e diárias) costumam apresentar tais características. Este modelo foi utilizado para a estimação dos retornos e, com isso, obtivemos todas as estimativas para que, com o modelo B-L, pudéssemos gerar uma carteira ótima em um instante de tempo inicial. Em seguida, faremos previsões, obtendo carteiras para as semanas seguintes. Por fim, mostraremos que a associação do modelo B-L e da estimação GARCH ortogonal pode gerar resultados bastante satisfatórios e, ao mesmo tempo, manter o modelo simples e gerar resultados coerentes com a intuição. Este estudo se dará sobre retornos de títulos de renda fixa, mais especificamente, títulos emitidos pelo Tesouro Nacional no mercado brasileiro. Tanto a escolha do modelo B-L, quanto a escolha por utilizar uma carteira de títulos emitidos pelo Tesouro Nacional tiveram como motivação o objetivo de aproximar ferramentas estatísticas de aplicações em finanças, em particular, títulos públicos federais emitidos em mercado, que têm se tornado cada vez mais familiares aos investidores pessoas físicas, sobretudo através do programa Tesouro Direto. Ao fazê-lo, espera-se que este estudo traga informações úteis tanto para investidores, quanto para gestores de dívida, uma vez que o modelo média-variância presta-se tanto àqueles que adquirem títulos, buscando, portanto, maximizar retorno para um dado nível de risco, quanto para aqueles que emitem títulos, e que, portanto, buscam reduzir seus custos de emissão a níveis prudenciais de risco. / One major challenge to financial management resides in associating traditional management with quantitative methods. Traditional managers tend to be skeptical about the quantitative methods contributions, whereas quantitative analysts tend to disregard the importance of the traditional view, creating clear disharmony and inefficiency in the risk management process. A model that seeks to diminish the distance between these two views is the Black-Litterman model (BLM). More specifically, it comes as a solution to difficulties faced when using modern portfolio in practice, particularly those derived from the usage of the Markowitz model. Although the Markowitz model has constituted the basis of portfolio theory for over half century, since the publication of the article Portfolio Selection [Mar52], its impact on the investment world has been quite limited. The Markowitz model addresses the most central objectives of an investment: maximizing the expected return, for a given level of risk. Even though it has had a standout role in the mean-average approach to academics, several difficulties arise when one attempts to make use of it in practice. Despite the disadvantages of its practical usage, the idea of maximizing the return for a given level of risk is so appealing to investors, that the search for models with better behavior continued, and is in this context that the Black-Litterman model came out. In 1992, Fischer Black and Robert Litterman wrote an article on the Black-Litterman model. One intrinsic difference between the BLM and a traditional mean-average one is that, while the second provides the weights of the assets in a portfolio out of a optimization routine, the BLM has its starting point at the long-run equilibrium market portfolio(CAPM). Another highlighting point of the BLM is the ability to provide one clear structucture that is able to combine the long term equilibrium information with the investors views, providing a set of expected returns, which, together, will be the input to generate the weights on the assets. As far as the estimation process is concerned, and for the purpose of choosing the most appropriate model, it was taken into consideration the fact that the risk of a portfolio is determined by the covariation matrix of its assets and, being so, matrices with large dimensions play an important role in the analysis of investments. Whereas, provided the application under study, it is desirable to have a model that is able to carry out the analysis for a considerable number of assets. For these reasons, the Orthogonal GARCH was selected, once it can generate the matrix of covariation of the original system from just a few univariate volatilities, and for this reason, it is a computationally simple method. The orthogonal factors are obtained with principal components analysis. Decomposing the variance of the system into risk factors is highly important, once it allows the risk manager to focus separately on each relevant source of risk. The main idea behind the orthogonalization consists in working with a reduced dimension of components. In this kind of model, sufficient risk factors are considered, thus, the variability not perceived by the model will be considered insigficant noise to the system. Nevertheless, the precision, when not using all the components, will depend on the number of components be sufficient to explain the major part of the variability. Moreover, the model will provide reasonable results depending on principal component analysis performing properly as well, what will be more likely to happen, in highly correlated systems. It is worthy of note that the Orthogonal GARCH is equally useful and feasible when one intends to analyse a portfolio consisting of assets across various types of risk, it means, a system which is not highly correlated. It is common to have such a portfolio, with, for instance, currency rates, stocks, fixed income and commodities. In order to make it to perform properly, it is necessary to separate groups with the same kind of risk and then carry out the principal component analysis by group and then merge the covariance matrices, producing the covariance matrix of the original system. To work together with the orthogonalization method, the GARCH model was chosen because it is able to draw the main stylized facts which characterize financial time series. Stylized facts are statistical patterns empirically observed, which are believed to be present in a number of time series. Financial time series which sufficient high frequency (intraday, daily and even weekly) usually present such behavior. For estimating returns purposes, it was used a ARMA model, and together with the covariance matrix estimation, we have all the parameters needed to perform the BLM study, coming out, in the end, with the optimal portfolio in a given initial time. In addition, we will make forecasts with the GARCH model, obtaining optimal portfolio for the following weeks. We will show that the association of the BLM with the Orthogonal GARCH model can generate satisfactory and coherent with intuition results and, at the same time, keeping the model simple. Our application is on fixed income returns, more specifically, returns of bonds issued in the domestic market by the Brazilian National Treasury. The motivation of this work was to put together statistical tolls and finance uses and applications, more specifically those related to the bonds issued by the National Treasuy, which have become more and more popular due to the \"Tesouro Direto\" program. In conclusion, this work aims to bring useful information either for investors or to debt managers, once the mean-variance model can be useful for those who want to maximize return at a given level or risk as for those who issue bonds, and, thus, seek to reduce their issuance costs at prudential levels of risk.
|
29 |
Diagnóstico de falhas em motores de indução trifásicos baseado em decomposição em componentes ortogonais e aprendizagem de máquinas / Fault diagnosis in three-phase induction motors based on orthogonal component decomposition and machine learningLuisa Helena Bartocci Liboni 05 June 2017 (has links)
O objetivo principal desta tese consiste no desenvolvimento de ferramentas matemáticas e computacionais dedicadas a um sistema de diagnóstico de barras quebradas no rotor de Motores de Indução Trifásicos. O sistema proposto é baseado em um método matemático de decomposição de sinais elétricos, denominado de Decomposição em Componentes Ortogonais, e ferramentas de aprendizagem de máquinas. Como uma das principais contribuições desta pesquisa, realizou-se um aprofundamento do entendimento da técnica de Decomposição em Componentes Ortogonais e de sua aplicabilidade como ferramenta de processamento de sinais para sistemas elétricos e eletromecânicos. Redes Neurais Artificiais e Support Vector Machines, tanto para classificação multi-classes quanto para detecção de novidades, foram configurados para receber índices advindos do processamento de sinais elétricos de motores, e a partir deles, identificar os padrões normais e os padrões com falhas. Além disso, a severidade da falha também é diagnosticada, a qual é representada pelo número de barras quebradas no rotor. Para a avaliação da metodologia, considerou-se o acionamento de motores de indução pela tensão de alimentação da rede e por inversores de frequência, operando sob diversas condições de torque de carga. Os resultados alcançados demonstram a eficácia das ferramentas matemáticas e computacionais desenvolvidas para o sistema de diagnóstico, sendo que os índices criados se mostraram altamente correlacionados com o fenômeno da falha. Mais especificamente, foi possível criar índices monotônicos com a severidade da falha e com baixa variabilidade, demonstrando-se que as ferramentas são eficientes extratores de características. / This doctoral thesis consists of the development of mathematical and computational tools dedicated to a diagnostic system for broken rotor bars in Three Phase Induction Motors. The proposed system is based on a mathematical method for decomposing electrical signals, named the Orthogonal Components Decomposition, and machine learning tools. As one of the main contributions of this research, an in-depth investigation of the decomposition technique and its applicability as a signal processing tool for electrical and electromechanical systems was carried-out. Artificial Neural Networks and Support Vector Machines for multi-class classification and novelty detection were configured to receive indices derived from the processing of electrical signals and then identify normal motors and faulty motors. In addition, the fault severity is also diagnosed, which is represented by the number of broken rotor bars. Experimental data was tested in order to evaluate the proposed method. Signals were obtained from induction motors operating with different torque levels and driven either directly by the grid or by frequency inverters. The results demonstrate the effectiveness of the mathematical and computational tools developed for the diagnostic system since the indices created are highly correlated with the fault phenomenon. More specifically, it was possible to create monotonic indices with the fault severity and with low variability, what supports that the solution is an efficient fault-specific feature extractor.
|
30 |
Difusão 3d em sólidos com forma arbitrária Usando coordenadas generalizadas.FARIAS, Vera Solange de Oliveira. 07 February 2018 (has links)
Submitted by Dilene Paulo (dilene.fatima@ufcg.edu.br) on 2018-02-07T13:41:46Z
No. of bitstreams: 1
VERA SOLANGE DE OLIVEIRA FARIAS – TESE PPGEP 2011.pdf: 7179434 bytes, checksum: 4a30c9a95f4a089e00fa550fbf1b42b8 (MD5) / Made available in DSpace on 2018-02-07T13:41:46Z (GMT). No. of bitstreams: 1
VERA SOLANGE DE OLIVEIRA FARIAS – TESE PPGEP 2011.pdf: 7179434 bytes, checksum: 4a30c9a95f4a089e00fa550fbf1b42b8 (MD5)
Previous issue date: 2011-04-29 / CNPq / Este trabalho apresenta a solução numérica da equação de difusão tridimensional em regime transiente, para um domínio arbitrário. Para atingir os objetivos, a equação de difusão foi discretizada usando coordenadas generalizadas via método dos volumes finitos com uma formulação totalmente implícita, para condições de contorno de equilíbrio e convectiva. Para cada passo no tempo, o sistema de equações obtido para uma dada malha estruturada foi resolvido pelo método de Gauss-Seidel. O código computacional foi desenvolvido em FORTRAN, usando o estúdio CVF 6.6.0, na plataforma Windows Vista. A solução proposta foi validada usando soluções analíticas e numéricas da equação de difusão para várias geometrias, permitindo validar malhas ortogonais e não-ortogonais. A análise e comparação dos resultados mostraram que a solução proposta forneceu resultados coerentes para todos os casos investigados. O código computacional desenvolvido foi aplicado na simulação, a partir de dados experimentais da secagem de telhas cerâmicas para as seguintes condições experimentais: temperaturas de 55,6 °C, 69,7 °C, 82,7 °C e 98,6 °C e teor de umidade inicial variando de 0,2345 até 0,2405 (b.s.). A simulação tornou possível determinar o coeficiente de difusão efetivo em função da razão de umidade e da temperatura do ar de secagem e também o valor do coeficiente de transferência convectivo de massa correspondente para cada temperatura. / This work presents a three-dimensional numerical solution for the diffusion equation in transient state, in an arbitrary domain. The diffusion equation was discretized using the finite volume method with a fully implicit formulation and generalized coordinates, for the equilibrium and convective boundary condition. For each time step, the system of equations obtained for a given structured mesh was solved by the Gauss-Seidel method. A computational code in FORTRAN, using the CFV 6.6.0 Studio, in a Windows Vista platform was developed. The proposed solution was validated by analytical and numerical solutions of the diffusion equation for several geometries. The geometries tested enabled to validate both orthogonal and non-orthogonal meshes. The analysis and comparison of the results showed that the proposed solution provides correct results for all cases investigated. The developed computational code was applied in the simulation, using experimental data of the drying of ceramic roof tiles, for the following experimental conditions: temperature from 55.6; 69.7; 82.7; 72.8 and 98.7 °C, initial moisture content from 0.2345 up to 0.2405 (d.b.). The simulation makes it possible to determine an expression for the diffusion coefficient as a function of the moisture content and temperature of the drying air, and also the value of the convective mass transfer coefficient corresponding to each temperature.
|
Page generated in 0.0598 seconds