• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 10
  • 2
  • Tagged with
  • 12
  • 12
  • 12
  • 12
  • 12
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

[en] EVOLUTION AND MODELLING OF THE BRAZILIAN TERM STRUCTURE OF INTEREST RATES / [pt] EVOLUÇÃO E MODELAGEM DA ESTRUTURA A TERMO DE JUROS BRASILEIRA

MARCELO CAMARAO GANEM 11 April 2012 (has links)
[pt] A modelagem da estrutura a termo de juros tem atraído atenção crescente de pesquisadores e profissionais de mercado ao longo dos últimos anos, por seu papel central em Finanças como balizadora do custo de capital. A oferta de produtos atrelados à dinâmica de juros vem evoluindo continuamente, tanto em volumes negociados quanto em sofisticação das estruturas, sendo acompanhada por modelos cada vez mais complexos de análise e apreçamento. A alta dimensionalidade do objeto de estudo exige o uso de um ferramental matemático bastante desenvolvido e diferente do utilizado para a análise de outros ativos (ações, por exemplo). Como resultado, temos diversos modelos de curva, não necessariamente reconciliáveis sob um quadro teórico unificado, e alguns eventualmente distantes da prática de mercados específicos. No Brasil o problema de avaliação da ETTJ é ainda mais complexo, tanto pelo rápido amadurecimento do mercado de renda fixa nos últimos dez anos, quanto pela herança de sua evolução histórica, ainda presente nas funções de resposta dos agentes locais. Possivelmente, a maior distorção do ambiente econômico-financeiro brasileiro seja o nível extremamente alto das taxas de juros de curto prazo, apesar dos avanços estruturais recentes. A disparidade em relação às taxas praticadas em economias desenvolvidas - ou mesmo em comparação a mercados emergentes com níveis similares de risco soberano – cria uma série de disfunções que afetam virtualmente todos os segmentos da economia real. O objetivo desta Tese foi mapear (e utilizar para apreçamento de ativos e derivativos) algumas particularidades de comportamento da ETTJ brasileira, eventualmente não compartilhadas por curvas de outras economias, portanto usando uma abordagem relativamente segregada das principais correntes de pesquisa em modelagem de renda fixa. O trabalho está dividido em duas fases: a primeira exploratória, através da aplicação de técnicas de estatística multivariada, Teoria de Carteiras e instrumentos de avaliação de risco para traçar a evolução histórica da curva de juros brasileira e seus prêmios e preços de risco associados a fatores endógenos e exógenos. A segunda parte da pesquisa faz uso das evidências estatísticas levantadas, incorporando-as a priori em um modelo semiparamétrico de apreçamento de derivativos, combinando elementos básicos de Teoria da Informação. Sua aderência e representatividade foram testadas sobre uma ampla base de opções de futuros de DI, sendo comparadas aos resultados de um modelo tradicional de mercado (BGM). A Tese conclui que a dinâmica da ETTJ brasileira entre 2001 e 2010 deve incorporar no seu processo de modelagem uma perspectiva histórica de percepção de riscos, aproximando a relação entre abordagens clássicas de apreçamento e a prática corrente dos agentes locais. / [en] Modeling the term-structure movements of interest rates is a task that has been attracting a crescent number of researchers and practitioners in quantitative finance, given its importance as the main driver for the economic cost of capital. The volume of traded interest rate sensitive assets and derivatives has grown significantly over the last few years, followed by increasingly complex models of pricing and analysis. The high dimensionality of the object of study requires the use of mathematical tools quite different from standard stock market models, resulting in several approaches that eventually lack a unified framework, flexible enough to capture the dynamics of some particular markets. In Brazil the yield curve analysis is even more complex, due to the fast increase of fixed income products over the last ten years, and the historical shifts in the monetary policy conduction. The risk premium in the Brazilian term-structure of interest rates is partially driven by some specific defensive behavior, following past monetary decisions. Until 2008, the Brazilian Central Bank has primarily dealt with domestic and external crises by raising the short term rate to restrain capital outflows, generating a well-known asymmetry in the market’s response functions to risk aversion. Therefore, the traditional parameterization of risk based on mean and variance estimators fails to capture the market price of risk assigned to higher order moments of bond returns across several maturities. The main purpose of this thesis was to get a broad picture of the singularities of the Brazilian term-structure dynamics, and use it to propose alternative approaches to interest rate derivatives pricing – particularly, embodying the third and fourth (pseudo) moments of bond returns into the modeling cycle. The work is divided in two parts: the first exploratory, applying multivariate statistics, portfolio theory and risk management tools to trace the historical evolution of the Brazilian yield curve, and plot the timeline of risk premia and prices of risk linked to exogenous and endogenous factors. The second part of the research uses the statistical evidence gathered as input to a semi-parametric model for pricing derivatives, based on elements of Information Theory. The model was back-tested over an extensive database of local interest rate options, and compared to the results of a traditional market model (BGM). The thesis concludes that the dynamics of the Brazilian yield curve is in part driven by its historical heritage, and endogenous risk factors including moments of bond returns of third and fourth orders are relevant for the premia structure and evolution. Bringing these elements into a modeling process might partially bridge the gap between classical curve models and the local pricing practice.
2

[en] NEW TECHNIQUES OF PATTERN CLASSIFICATION BASED ON LOCAL-GLOBAL METHODS / [pt] NOVAS TÉCNICAS DE CLASSIFICAÇÃO DE PADRÕES BASEADAS EM MÉTODOS LOCAL-GLOBAL

RODRIGO TOSTA PERES 13 January 2009 (has links)
[pt] O foco desta tese está direcionado a problemas de Classificação de Padrões. A proposta central é desenvolver e testar alguns novos algoritmos para ambientes supervisionados, utilizando um enfoque local- global. As principais contribuições são: (i) Desenvolvimento de método baseado em quantização vetorial com posterior classificação supervisionada local. O objetivo é resolver o problema de classificação estimando as probabilidades posteriores em regiões próximas à fronteira de decisão; (ii) Proposta do que denominamos Zona de Risco Generalizada, um método independente de modelo, para encontrar as observações vizinhas à fronteira de decisão; (iii) Proposta de método que denominamos Quantizador Vetorial das Fronteiras de Decisão, um método de classificação que utiliza protótipos, cujo objetivo é construir uma aproximação quantizada das regiões vizinhas à fronteira de decisão. Todos os métodos propostos foram testados em bancos de dados, alguns sintéticos e outros publicamente disponíveis. / [en] This thesis is focused on Pattern Classification problems. The objective is to develop and test new supervised algorithms with a local-global approach. The main contributions are: (i) A method based on vector quantization with posterior supervised local classification. The classification problem is solved by the estimation of the posterior probabilities near the decision boundary; (ii) Propose of what we call Zona de Risco Generalizada, an independent model method to find observations near the decision boundary; (iii) Propose of what we call Quantizador Vetorial das Fronteiras de Decisão, a classification method based on prototypes that build a quantized approximation of the decision boundary. All methods were tested in synthetics or real datasets.
3

[en] VOLUNTARY SEPARATION PROGRAMS IN THE PUBLIC SECTOR: AN INFORMATION THEORY ANALYSIS / [pt] PROGRAMAS DE DEMISSÃO VOLUNTÁRIA NO SETOR PÚBLICO: UMA ANÁLISE SOB A ÓTICA DA TEORIA DA INFORMAÇÃO

DELANO OCTAVIO JORGE FRANCO 09 September 2009 (has links)
[pt] Muito se tem discutido sobre a adoção de programas de demissão voluntária visando a redução do quadro de pessoal no setor público. Dada sua suposta hipertrofia, tais iniciativas seriam um caminho racional, e de resistência política suportável, para a melhoria das contas públicas. O caráter voluntário do desligamento, no entanto, traz maior complexidade à análise de seus resultados financeiros, devido aos efeitos do comportamento estratégico dos agentes. Esta dissertação busca, através da aplicação de conceitos microeconômicos, a obtenção de uma melhor compreensão acerca das consequências desses planos. São estudados, em particular, os problemas relacionados à heterogeneidade da força de trabalho quanto a perspectivas de remuneração no setor privado e valorização do menor esforço demandado em empregos públicos. / [en] A lot has been debated about the adoption of voluntary separation programs seeking the reduction of the public sector`s servents. Given its supposed hypertrophy, such initiatives would be a rational way, and of bearable political resistance, for the improvement of the public accounts. The voluntary character of the redundancies, however brings larger complexity to the analysis of the financial results, due to the effects of the strategic behavior of the agents. This dissertation seeks a better understanding of the consequences of these plans, through the application of microeconomic concepts. In studies, in particular, the problems related to the workers` heterogeneity with relation to the remuneration perspectives in the private sector and to the value attributed to the smaller effort demanded in public jobs.
4

[en] OPEN DVC: A TOOL FOR SIMULATION AND EVALUATION OF DISTRIBUTED VIDEO CODING / [pt] OPEN DVC: UMA FERRAMENTA PARA SIMULAÇÃO E AVALIAÇÃO DE CODIFICAÇÃO DISTRIBUÍDA DE VÍDEO

CLAYTON ESCOUPER DAS CHAGAS 14 October 2011 (has links)
[pt] Codificação Distribuída de Vídeo (Distributed Video Coding – DVC) é um paradigma de codificação baseado nos conceitos da Codificação Distribuída de Fontes correlatadas (Distributed Source Coding – DSC), que tem como arcabouço a Teoria da Informação desenvolvida por Shannon, para um cenário onde temos uma codificação distribuída dos elementos e uma decodificação conjunta. Implementações com arquiteturas diferentes foram apresentadas ao longo dos últimos anos, mas devido a diversos motivos como a indisponibilidade de documentação detalhada, falta de preocupação dos projetos em relação à engenharia de software, não uniformização e heterogeneidade das tecnologias de implementação, entre outros, o desenvolvimento desta área acabou sendo dificultado pela falta de ferramentas e documentação mais aplicada, impedindo que o pesquisador focasse seus estudos e pesquisas apenas na parte que pretende otimizar ou complementar do projeto. Esse trabalho aplica conceitos e teorias de engenharia de software, orientação a objetos, componentização, frameworks e outros, com o objetivo de projetar, implementar, documentar e testar um framework aberto, incremental e reutilizável para implementação de uma ferramenta para simulação e avaliação de Codificação Distribuída de Vídeo, a qual chamamos de Open DVC, apresentada num ambiente colaborativo de forma que possa ser utilizada para estudos e que as contribuições desenvolvidas futuramente possam ser agregadas ao framework com pouco esforço de codificação. / [en] Distributed Video Coding (DVC) is a coding paradigm based on the concepts of Distributed Source Coding (DSC), which is based on Information Theory developed by Shannon, for a scenario where we have a distributed encoding of information and a joint decoding. Implementations with different architectures have been presented over the past years, but due to various reasons such as unavailability of detailed documentation, lack of concern of the projects in relation to software engineering, non uniform and heterogeneous implementation technologies, amog others, the development of this area ended up being hampered by a lack of tools and documentation more applied, preventing the researcher from focusing his studies and research only on the party to be enhanced or to be extended in the project. This work applies concepts and theories of software engineering, object orientation, components, frameworks and other, in order to design, implement, document and test an open framework, incremental and reusable to implement tools for simulation and evaluation of Distributed Video Coding, which we call Open DVC, submitted in a collaborative environment so that it can be used for studies and the contributions developed in the future can be aggregated to the framework with little coding effort.
5

[en] INFERRING THE NATURE OF DETERMINISTIC SOURCES OF REAL SERIES THROUGH PERMUTATION ENTROPY AND STATISTICAL COMPLEXITY MEASURES / [pt] INFERINDO A NATUREZA DAS FONTES DETERMINÍSTICAS DE SÉRIES REAIS ATRAVÉS DE MEDIDAS DE ENTROPIA DE PERMUTAÇÃO E COMPLEXIDADE ESTATÍSTICA

AYRTON SOARES RIBEIRO 07 November 2014 (has links)
[pt] O objetivo dessa dissertação é inferir o caráter das forças que governam os sistemas complexos modelados por equações de Langevin, utilizando quantificadores provenientes da teoria de informação. Avaliamos em detalhes as medidas de entropia de permutação (PE) e de complexidade estatística de permutação (PSC) para duas classes de similaridade de modelos estocásticos, caracterizadas por propriedades de arrasto ou de reversão, respectivamente, empregando-as como referência para a inspeção de séries reais. Encontramos novos parâmetros relevantes dos modelos para as medidas de PE e PSC, em relação a medidas tradicionais de entropia. Determinamos as curvas de PE e PSC de acordo com esses parâmetros para diferentes ordens de permutação n e inferimos as medidas limites para uma ordem arbitrariamente grande. Apesar de a medida PSC apresentar comportamento fortemente dependente da ordem de permutação considerada, encontramos um importante resultado n-invariante, que permite identificar a natureza (de arrasto ou de reversão) das fontes determinísticas subjacentes ao sinal complexo. Concluímos investigando a presença de tendências locais em séries de preços de ações. / [en] The scope of this dissertation is to infer the character of the forces controlling complex systems modeled by Langevin equations, by recourse to information-theory quantifiers. We evaluate in detail the permutation entropy (PE) and the permutation statistical complexity (PSC) measures for two classes of similarity of stochastic models characterized by drifting and reversion properties, respectively, employing them as a framework for the inspection of real series. We found new relevant model parameters for PE and PSC measures as compared to standard entropy measures. We determine the PE and PSC curves according to these parameters for different permutation orders n and infer the limiting measures for arbitrary large order. Although the PSC measure presents a strongly scaledependent behavior, a key n-invariant outcome arises, enabling one to identify the nature (drifting or reversion) of the deterministic sources underlying the complex signal. We conclude by investigating the presence of local trends in stock price series.
6

[pt] RESULTADOS TEÓRICOS E EXPERIMENTAIS EM CLUSTERIZAÇÃO COM MÉTRICAS DE TEORIA DA INFORMAÇÃO / [en] THEORETICAL AND EXPERIMENTAL RESULTS IN INFORMATION-THEORETIC CLUSTERING

LUCAS SAADI MURTINHO 21 September 2020 (has links)
[pt] Esta dissertação apresenta resultados teóricos e experimentais relativos ao problema de clusterização de um conjunto de vetores (que possam ser interpretados como distribuições de probabilidade) com o objetivo de minimizar uma medida de impureza da partição resultante. Por meio de uma conexão entre o problema geométrico de k-médias e o problema de clusterização para minimizar a impureza ponderada de Gini da partição, prova-se que este último é NP-completo e APX-difícil. Também analisamos uma família de algoritmos para clusterização com base nas componentes dominantes (as maiores componentes) dos vetores a serem particionados. Mostra-se que, em alguns casos, dois desses algoritmos conseguem obter bons resultados em termos da entropia ponderada da partição resultante, em um tempo bem menor do que os algoritmos considerados como o estado da arte. / [en] We present theoretical and experimental results related to the problem of clustering a set of vectors (which can be interpreted as probability distributions) with the goal of minimizing a weighted impurity measure of the resulting partition. The problem of clustering while minimizing the weighted Gini impurity of the partition is shown to be NP-complete and APX-hard, via a connection with the geometrical k-means problem. We also analyze a family of algorithms for information-theoretic clustering that rely on the dominant (largest) component of the vectors to be clustered. These algorithms are shown to be very fast compared to the state of the art, while able to achieve comparable results in terms of the resulting partition s weighted entropy.
7

[en] PERMUTATION CODES FOR DATA COMPRESSION AND MODULATION / [pt] CÓDIGOS DE PERMUTAÇÃO PARA COMPRESSÃO DE DADOS E MODULAÇÃO

DANILO SILVA 01 April 2005 (has links)
[pt] Códigos de permutação são uma interessante ferramenta matemática que pode ser empregada para construir tanto esquemas de compressão com perdas quanto esquemas de modulação em um sistema de transmissão digital. Códigos de permutação vetorial, uma extensão mais poderosa dos códigos de permutação escalar, foram recentemente introduzidos no contexto de compressão de fontes. Este trabalho apresenta novas contribuições a essa teoria e introduz os códigos de permutação vetorial no contexto de modulação. Para compressão de fontes, é demonstrado matematicamente que os códigos de permutação vetorial (VPC) têm desempenho assintótico idêntico ao do quantizador vetorial com restrição de entropia (ECVQ). Baseado neste desenvolvimento, é proposto um método eficiente para o projeto de VPC s. O bom desempenho dos códigos projetados com esse método é verificado através de resultados experimentais para as fontes uniforme e gaussiana: são exibidos VPC s cujo desempenho é semelhante ao do ECVQ e superior ao de sua versão escalar. Para o propósito de transmissão digital, é verificado que também a modulação baseada em códigos de permutação vetorial (VPM) possui desempenho superior ao de sua versão escalar. São desenvolvidas as expressões para o projeto ótimo de VPM, e um método é apresentado para detecção ótima de VPM em canais AWGN e com desvanecimento. / [en] Permutation codes are an interesting mathematical tool which can be used to devise both lossy compression schemes and modulation schemes for digital transmission systems. Vector permutation codes, a more powerful extension of scalar permutation codes, were recently introduced for the purpose of source compression. This work presents new contributions to this theory and also introduces vector permutation codes for the purpose of modulation. For source compression, it is proved that vector permutation codes (VPC) have an asymptotical performance equal to that of an entropy-constrained vector quantizer (ECVQ). Based on this development, an efficient method is proposed for VPC design. Experimental results for Gaussian and uniform sources show that the codes designed by this method have indeed a good performance: VPC s are exhibited whose performances are similar to that of ECVQ and superior to those of their scalar counterparts. In the context of digital transmission, it is verified that also vector permutation modulation (VPM) is superior in performance to scalar permutation modulation. Expressions are developed for the optimal design of VPM, and a method is presented for maximum-likelihood detection of VPM in AWGN and fading channels.
8

[en] THE BURROWS-WHEELER TRANSFORM AND ITS APPLICATIONS TO COMPRESSION / [pt] A TRANSFORMADA DE BURROWS-WHEELER E SUA APLICAÇÃO À COMPRESSÃO

JULIO CESAR DUARTE 23 July 2003 (has links)
[pt] A transformada de Burrows-Wheeler, baseada na ordenação de contextos, transforma uma seqüência de caracteres em uma nova seqüência mais facilmente comprimida por um algoritmo que explore grandes seqüências de repetições de caracteres. Aliado a recodificação do MoverParaFrente e seguida de uma codificação para os inteiros gerados, eles formam uma nova família de compressores, que possuem excelentes taxas de compressão, com boas performances nos tempos de compressão e descompressão. Este trabalho examina detalhadamente essa transformada, suas variações e algumas alternativas para os algoritmos utilizados em conjunto com ela. Como resultado final, apresentamos uma combinação de estratégias que produz taxas de compressão para texto melhores do que as oferecidas pelas implementações até aqui disponíveis. / [en] The Burrows-Wheeler Transform, based on sorting of contexts, transforms a sequence of characters into a new sequence easier to compress by an algorithm that exploits long sequences of repeted characters. Combined with the coding provided by the MoveToFront Algorithm and followed by a codification for the generated integers, they propose a new family of compressors, that achieve excellent compression rates with good time performances in compression and decompression. This work examines detaildedly this transform, its variations and some alternatives for the algorithms used together with it. As a final result, we present a combination of strategies that producescompression rates for text data that are better than those offered by implementations available nowadays.
9

[en] CODING INFLUENCE ON DIGITAL WATERMARKING / [pt] INFLUÊNCIA DA CODIFICAÇÃO EM MARCAS D ÁGUA DIGITAIS

MARCOS DE CASTRO PACITTI 23 July 2007 (has links)
[pt] Esta tese pode ser segmentada em duas partes distintas, porém complementares. A primeira parte trata do problema que tange ao desenvolvimento da maioria dos sistemas de marcação d água digital: a necessidade de primeiramente selecionar a técnica de modulação não codificada que fará parte de uma arquitetura codificada. Assim, para proceder adequada seleção, os limitantes de desempenho das técnicas não codificadas são ferramentas importantes para otimização de sistemas codificados, objetivando operação próximo à capacidade. Esta parte da tese introduz um novo limitante inferior para técnicas binárias de marcação d água digital, fundamentado em uma simples equivalência com um sistema de comunicação binário. A segunda parte desta tese introduz uma nova metodologia para o projeto e análise de sistemas de marcação d água digital que, sob o ponto de vista da teoria da informação, incorpora a fragilidade e a robustez. A metodologia proposta é desenvolvida com foco no comportamento da curva de desempenho em sistemas codificados, e considera não somente o ganho de codificação, mas também a robustez e a fragilidade do sistema. Este novo conceito introduz a necessidade de revisitar o projeto de sistemas codificados de marcação digital para incorporar também os requisitos de robustez e/ou de fragilidade. Neste contexto, o código turbo atende de imediato aos requisitos para implementação de um sistema de marcação d água digital robusto, e um sistema frágil pode também ser implementado através da introdução de um esquema de polarização. Este novo esquema de polarização, com o emprego da codificação turbo, também permite a implementação de técnicas semi-frágeis e híbridas, alcançando a robustez e a fragilidade do sistema com apenas uma marcação d água. Resultados de simulação experimental apóiam a metodologia proposta, e possibilita o aprofundamento da discussão do proposto esquema de polarização em sistemas de marcação d água digital. / [en] This thesis can be segmented in two distinct but complementary parts. The first part addresses the problem pertinent to coded digital watermarking systems development require namely the selection of a (uncoded) modulation technique to be part of a coded architecture. Therefore, performance bounds for uncoded techniques are an important tool for coded system optimization, aiming at operation close to capacity. This part introduces a new performance lower bound for uncoded binary watermarking modulation techniques, based on a simple equivalence with a binary communication system, considering an additive gaussian attack model. New M-ary unidimensional and multidimensional Spread Spectrum based modulation techniques are introduced, including their improved versions. The performances of the proposed techniques are determined, and the performance lower bounds for the corresponding techniques classes are determined as well. The second part of this thesis, introduces a new methodology for the design and analysis of digital watermarking systems which, from an information theoretic point of view, incorporates robustness and fragility. The proposed methodology is developed by focusing on the probability of error versus watermark-to-noise ratio curve, describing the technique performance, and a scenario for coded techniques which takes into account not only the coding gain, but also the robustness or fragility of the system. This new concept requires that coded digital watermarking systems design be revisited to also include the robustness and fragility requirements. Turbo codes, which appropriately meet these requirements, can be used straightforwardly to construct robust watermarking systems. Fragile systems can also be constructed by introducing the idea of polarization scheme. This new idea has allowed the implementation of hybrid techniques achieving fragility and robustness with a single watermark embedding. Simulation results supports the introduced methodology and allowed us to enhance the discussion on the polarization scheme.
10

[en] MODULATION SCHEMES FOR FREQUENCY CODED QUANTUM KEY DISTRIBUTION / [pt] ESQUEMAS DE MODULAÇÃO PARA DISTRIBUIÇÃO QUÂNTICA DE CHAVES COM CODIFICAÇÃO DE FREQÜÊNCIA

GUILHERME BARRETO XAVIER 20 May 2005 (has links)
[pt] A criptografia quântica foi proposta como uma solução para o problema da distribuição de chaves criptográficas com segurança total garantida pelos princípios da mecânica quântica. Através dessa técnica é possível saber se um espião tentou interceptar a transmissão, o que é impossível utilizando técnicas de transmissão clássicas. Nesse trabalho foi feito um breve resumo da teoria de criptografia quântica, de suas técnicas de transmissão e dos problemas tecnológicos enfrentados. Foi analisada em detalhes a técnica de transmissão de qubits utilizando codificação de freqüência e feita uma comparação dos diferentes esquemas de modulação frente aos protocolos BB84 e B92. Foi demonstrado que os dois esquemas de modulação existentes (AM-AM e PM-PM) são na realidade equivalentes e foi proposto um novo esquema, o AM-PM o único que suporta o protocolo BB84 clássico. Medidas foram realizadas classicamente nos formatos AM-AM e AM-PM. / [en] Quantum cryptography has been proposed as a solution to the cryptographic key distribution problem with absolute security guaranteed by the principles of quantum mechanics. Through this scheme it is possible to find out whether a spy tried to eavesdrop on the transmission, which was impossible to discover using classical transmission techniques. In this work a brief review of quantum cryptography theory, transmission techniques and technological problems involved were performed. It was analyzed in detail the transmission technique employing frequency coding, and a comparison was made between the different modulation schemes and the BB84 and B92 protocols. It was demonstrated that the two existing modulation formats (AM-AM and PM-PM) are in fact equivalent and a new format (AM-PM) was proposed, the only one able to accommodate classical BB84. Classical measurements were performed on the AM-AM and AMPM formats.

Page generated in 0.037 seconds