Spelling suggestions: "subject:"idosos""
1 |
Detecção e classificação de revisões de produtos em ambientes ruidososMaciel Junior, Onilton de Oliveira 28 March 2013 (has links)
Submitted by Lúcia Brandão (lucia.elaine@live.com) on 2015-12-11T18:38:02Z
No. of bitstreams: 1
Dissertação - Onilton de Oliveira Maciel Junior.pdf: 1323945 bytes, checksum: 1dbe56bb277d786c9dda5294abe9e8dc (MD5) / Approved for entry into archive by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br) on 2016-01-20T18:33:35Z (GMT) No. of bitstreams: 1
Dissertação - Onilton de Oliveira Maciel Junior.pdf: 1323945 bytes, checksum: 1dbe56bb277d786c9dda5294abe9e8dc (MD5) / Approved for entry into archive by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br) on 2016-01-20T18:39:45Z (GMT) No. of bitstreams: 1
Dissertação - Onilton de Oliveira Maciel Junior.pdf: 1323945 bytes, checksum: 1dbe56bb277d786c9dda5294abe9e8dc (MD5) / Made available in DSpace on 2016-01-20T18:39:45Z (GMT). No. of bitstreams: 1
Dissertação - Onilton de Oliveira Maciel Junior.pdf: 1323945 bytes, checksum: 1dbe56bb277d786c9dda5294abe9e8dc (MD5)
Previous issue date: 2013-03-28 / FAPEAM - Fundação de Amparo à Pesquisa do Estado do Amazonas / Eletronic commerce, which has retailers of the most variable sizes, is one of
the most profitable segments of the web. Every day, a large number of users buys
products through those websites, in a process that, not rarely, begins with a search
for product information. The product reviews available at online stores are tools
thathelpthisprocessbyprovidingotherusersimpressionsaboutaproduct,without
demanding any effort from the user for him to get more information. This tool,
however, have some limitations, among them, the amount of reviews available and
the difficulty to obtain them. Therefore, in this work, we present a method that,
using a external database of documents, can be utilized to find and show reviews in
the pages of the corresponding product. Our experiments show that our proposal
is a practicable alternative to improve the user experience in eletronic commerce
websites. / O comercio eletrônico exercido por varejistas dos mais diversos tamanhos através
de suas lojas virtuais é um dos mais lucrativos segmentos da web. Diariamente, um
grande número de usuários realiza a compra de produtos através desses sites, em um
processo que, não raramente, inicia-se por uma pesquisa sobre diversas informações
do produto. As revisões de produto existentes nas lojas virtuais são uma ferramenta
que visa auxiliar esse processo ao prover opiniões de outros usuários a respeito de
um produto, sem demandar esforço do usuário para obter tais informações. Essa ferramenta,
no entanto, possui algumas limitações, entre elas, a quantidade de revisões
disponíveis e a dificuldade em obte-las. Por esse motivo, neste trabalho, apresentamos
um método que, utilizando uma base externa de documentos candidatos,
pode ser utilizado para encontrar e exibir revisões nas páginas dos produtos correspondentes.
Nossos experimentos demonstram que nossa proposta é um alternativa
viável para melhorar a experiência dos usuários em sites de comércio eletrônico
|
2 |
Melhoramento de sinais de voz baseado na identificação de padrões ruidosos / Speech enhancement based on noisy patterns identificationAbreu, Caio Cesar Enside de [UNESP] 03 March 2017 (has links)
Submitted by CAIO CESAR ENSIDE DE ABREU null (caioenside@gmail.com) on 2017-03-24T20:37:01Z
No. of bitstreams: 1
TeseCaio.pdf: 2444421 bytes, checksum: 576f59395bffe14aa56f611b1a2dd648 (MD5) / Approved for entry into archive by Luiz Galeffi (luizgaleffi@gmail.com) on 2017-03-29T18:19:15Z (GMT) No. of bitstreams: 1
abreu_cce_dr_ilha.pdf: 2444421 bytes, checksum: 576f59395bffe14aa56f611b1a2dd648 (MD5) / Made available in DSpace on 2017-03-29T18:19:15Z (GMT). No. of bitstreams: 1
abreu_cce_dr_ilha.pdf: 2444421 bytes, checksum: 576f59395bffe14aa56f611b1a2dd648 (MD5)
Previous issue date: 2017-03-03 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / Este trabalho propõe contribuir com pesquisas em melhoramento de voz (MV) por meio do estudo de diversos tipos de algoritmos baseados em Fourier e wavelets, assim como o desenvolvimento de uma ferramenta para a identificação e classificação do ruído, culminando com uma nova metodologia. Denominada "Conjunto de Métodos de Melhoramento de Voz (CMMV)'', a metodologia consiste em utilizar um banco de dados com sentenças contaminadas com vários tipos de ruídos reais, ajustando, em modo off-line, vários métodos de MV para cada tipo de ruído. Os melhores métodos para cada tipo de ruído são selecionados para compor o conjunto de métodos. Durante a operação, em modo on-line, um classificador de ruído prediz o tipo de ruído presente no sinal em processamento e então o melhor método é escolhido dentro do CMMV construído. Seis tipos de ruídos foram utilizados durante as simulações e os métodos que obtiveram melhor desempenho frente a cada tipo foram indicados por meio de análise objetiva. Constatou-se que o desempenho desses métodos pode variar de acordo com o tipo do ruído de fundo, confirmando que o desenvolvimento de algoritmos que trabalham eficientemente em qualquer ambiente ruidoso, incorporando classificação de ruído, é uma tendência. O classificador de ruídos desenvolvido nesta pesquisa tem como base um sistema imunológico artificial e características extraídas por uma análise multiescala fornecida pela transformada wavelet complexa. Com uma acurácia média de 96,29% para os seis tipos de ruído considerados e tempo de resposta médio de 6,9 milissegundos, o classificador desenvolvido se mostrou viável para implementações e utilização em conjunto com outras tecnologias. Explorando algumas das possibilidades e benefícios do processamento baseado na classificação do ruído, a seguinte questão foi levantada: "seria possível realizar uma razoável estimação do ruído a partir do sinal de voz ruidoso por meio de regressão?”. Esta questão surgiu durante o desenvolvimento da pesquisa, pois o bom funcionamento de métodos de MV depende de uma boa estimação do perfil do ruído. As simulações mostram que este tipo de estimação de ruído pode gerar resultados satisfatórios com menor custo computacional. Por fim, comparado aos métodos clássicos, o CMMV mostrou-se tão ou mais eficiente quanto.
|
3 |
Melhoramento de sinais de voz baseado na identificação de padrões ruidosos /Abreu, Caio Cesar Enside de. January 2017 (has links)
Orientador: Francisco Villarreal Alvarado / Resumo: Este trabalho propõe contribuir com pesquisas em melhoramento de voz (MV) por meio do estudo de diversos tipos de algoritmos baseados em Fourier e wavelets, assim como o desenvolvimento de uma ferramenta para a identificação e classificação do ruído, culminando com uma nova metodologia. Denominada "Conjunto de Métodos de Melhoramento de Voz (CMMV)'', a metodologia consiste em utilizar um banco de dados com sentenças contaminadas com vários tipos de ruídos reais, ajustando, em modo off-line, vários métodos de MV para cada tipo de ruído. Os melhores métodos para cada tipo de ruído são selecionados para compor o conjunto de métodos. Durante a operação, em modo on-line, um classificador de ruído prediz o tipo de ruído presente no sinal em processamento e então o melhor método é escolhido dentro do CMMV construído. Seis tipos de ruídos foram utilizados durante as simulações e os métodos que obtiveram melhor desempenho frente a cada tipo foram indicados por meio de análise objetiva. Constatou-se que o desempenho desses métodos pode variar de acordo com o tipo do ruído de fundo, confirmando que o desenvolvimento de algoritmos que trabalham eficientemente em qualquer ambiente ruidoso, incorporando classificação de ruído, é uma tendência. O classificador de ruídos desenvolvido nesta pesquisa tem como base um sistema imunológico artificial e características extraídas por uma análise multiescala fornecida pela transformada wavelet complexa. Com uma acurácia média de 96,29% para os seis... (Resumo completo, clicar acesso eletrônico abaixo) / Doutor
|
4 |
Normalização textual de conteúdo gerado por usuário / User-generated content text normalizationBertaglia, Thales Felipe Costa 18 August 2017 (has links)
Conteúdo Gerado por Usuário (CGU) é a denominação dada ao conteúdo criado de forma espontânea por indivíduos comuns, sem vínculos com meios de comunicação. Esse tipo de conteúdo carrega informações valiosas e pode ser explorado por diversas áreas do conhecimento. Muito do CGU é disponibilizado em forma de textos avaliações de produtos, comentários em fóruns sobre filmes e discussões em redes sociais são exemplos. No entanto, a linguagem utilizada em textos de CGU diverge, de várias maneiras, da norma culta da língua, dificultando seu processamento por técnicas de PLN. A linguagem de CGU é fortemente ligada à língua utilizada no cotidiano, contendo, assim, uma grande quantidade de ruídos. Erros ortográficos, abreviações, gírias, ausência ou mau uso de pontuação e de capitalização são alguns ruídos que dificultam o processamento desses textos. Diversos trabalhos relatam perda considerável de desempenho ao testar ferramentas do estado-daarte de PLN em textos de CGU. A Normalização Textual é o processo de transformar palavras ruidosas em palavras consideradas corretas e pode ser utilizada para melhorar a qualidade de textos de CGU. Este trabalho relata o desenvolvimento de métodos e sistemas que visam a (a) identificar palavras ruidosas em textos de CGU, (b) encontrar palavras candidatas a sua substituição, e (c) ranquear os candidatos para realizar a normalização. Para a identificação de ruídos, foram propostos métodos baseados em léxicos e em aprendizado de máquina, com redes neurais profundas. A identificação automática apresentou resultados comparáveis ao uso de léxicos, comprovando que este processo pode ser feito com baixa dependência de recursos. Para a geração e ranqueamento de candidatos, foram investigadas técnicas baseadas em similaridade lexical e word embeddings. Concluiu-se que o uso de word embeddings é altamente adequado para normalização, tendo atingido os melhores resultados. Todos os métodos propostos foram avaliados com base em um córpus de CGU anotado no decorrer do projeto, contendo textos de diferentes origens: fóruns de discussão, reviews de produtos e publicações no Twitter. Um sistema, Enelvo, combinando todos os métodos foi implementado e comparado a um outro sistema normalizador existente, o UGCNormal. Os resultados obtidos pelo sistema Enelvo foram consideravelmente superiores, com taxa de correção entre 67% e 97% para diferentes tipos de ruído, com menos dependência de recursos e maior flexibilidade na normalização. / User Generated Content (UGC) is the name given to content created spontaneously by ordinary individuals, without connections to the media. This type of content carries valuable information and can be exploited by several areas of knowledge. Much of the UGC is provided in the form of texts product reviews, comments on forums about movies, and discussions on social networks are examples. However, the language used in UGC texts differs, in many ways, from the cultured norm of the language, making it difficult for NLP techniques to handle them. UGC language is strongly linked to the language used in daily life, containing a large amount of noise. Spelling mistakes, abbreviations, slang, absence or misuse of punctuation and capitalization are some noises that make it difficult to process these texts. Several works report considerable loss of performance when testing NLP state-of-the-art tools in UGC texts. Textual Normalization is the process of turning noisy words into words considered correct and can be used to improve the quality of UGC texts. This work reports the development of methods and systems that aim to (a) identify noisy words in UGC, (b) find candidate words for substitution, and (c) rank candidates for normalization. For the identification of noisy words, lexical-based methods and machine learning ones using deep neural networks were proposed. The automatic identification presented results comparable to the use of lexicons, proving that this process can be done with low dependence of resources. For the generation and ranking of candidates, techniques based on lexical similarity and word embeddings were investigated. It was concluded that the use of embeddings is highly suitable for normalization, having achieved the best results. All proposed methods were evaluated based on a UGC corpus annotated throughout the project, containing texts from different sources: discussion forums, product reviews and tweets. A system, Enelvo, combining all methods was implemented and compared to another existing normalizing system, UGCNormal. The results obtained by the Enelvo system were considerably higher, with a correction rate between 67 % and 97 % for different types of noise, with less dependence on resources and greater flexibility in normalization.
|
5 |
Normalização textual de conteúdo gerado por usuário / User-generated content text normalizationThales Felipe Costa Bertaglia 18 August 2017 (has links)
Conteúdo Gerado por Usuário (CGU) é a denominação dada ao conteúdo criado de forma espontânea por indivíduos comuns, sem vínculos com meios de comunicação. Esse tipo de conteúdo carrega informações valiosas e pode ser explorado por diversas áreas do conhecimento. Muito do CGU é disponibilizado em forma de textos avaliações de produtos, comentários em fóruns sobre filmes e discussões em redes sociais são exemplos. No entanto, a linguagem utilizada em textos de CGU diverge, de várias maneiras, da norma culta da língua, dificultando seu processamento por técnicas de PLN. A linguagem de CGU é fortemente ligada à língua utilizada no cotidiano, contendo, assim, uma grande quantidade de ruídos. Erros ortográficos, abreviações, gírias, ausência ou mau uso de pontuação e de capitalização são alguns ruídos que dificultam o processamento desses textos. Diversos trabalhos relatam perda considerável de desempenho ao testar ferramentas do estado-daarte de PLN em textos de CGU. A Normalização Textual é o processo de transformar palavras ruidosas em palavras consideradas corretas e pode ser utilizada para melhorar a qualidade de textos de CGU. Este trabalho relata o desenvolvimento de métodos e sistemas que visam a (a) identificar palavras ruidosas em textos de CGU, (b) encontrar palavras candidatas a sua substituição, e (c) ranquear os candidatos para realizar a normalização. Para a identificação de ruídos, foram propostos métodos baseados em léxicos e em aprendizado de máquina, com redes neurais profundas. A identificação automática apresentou resultados comparáveis ao uso de léxicos, comprovando que este processo pode ser feito com baixa dependência de recursos. Para a geração e ranqueamento de candidatos, foram investigadas técnicas baseadas em similaridade lexical e word embeddings. Concluiu-se que o uso de word embeddings é altamente adequado para normalização, tendo atingido os melhores resultados. Todos os métodos propostos foram avaliados com base em um córpus de CGU anotado no decorrer do projeto, contendo textos de diferentes origens: fóruns de discussão, reviews de produtos e publicações no Twitter. Um sistema, Enelvo, combinando todos os métodos foi implementado e comparado a um outro sistema normalizador existente, o UGCNormal. Os resultados obtidos pelo sistema Enelvo foram consideravelmente superiores, com taxa de correção entre 67% e 97% para diferentes tipos de ruído, com menos dependência de recursos e maior flexibilidade na normalização. / User Generated Content (UGC) is the name given to content created spontaneously by ordinary individuals, without connections to the media. This type of content carries valuable information and can be exploited by several areas of knowledge. Much of the UGC is provided in the form of texts product reviews, comments on forums about movies, and discussions on social networks are examples. However, the language used in UGC texts differs, in many ways, from the cultured norm of the language, making it difficult for NLP techniques to handle them. UGC language is strongly linked to the language used in daily life, containing a large amount of noise. Spelling mistakes, abbreviations, slang, absence or misuse of punctuation and capitalization are some noises that make it difficult to process these texts. Several works report considerable loss of performance when testing NLP state-of-the-art tools in UGC texts. Textual Normalization is the process of turning noisy words into words considered correct and can be used to improve the quality of UGC texts. This work reports the development of methods and systems that aim to (a) identify noisy words in UGC, (b) find candidate words for substitution, and (c) rank candidates for normalization. For the identification of noisy words, lexical-based methods and machine learning ones using deep neural networks were proposed. The automatic identification presented results comparable to the use of lexicons, proving that this process can be done with low dependence of resources. For the generation and ranking of candidates, techniques based on lexical similarity and word embeddings were investigated. It was concluded that the use of embeddings is highly suitable for normalization, having achieved the best results. All proposed methods were evaluated based on a UGC corpus annotated throughout the project, containing texts from different sources: discussion forums, product reviews and tweets. A system, Enelvo, combining all methods was implemented and compared to another existing normalizing system, UGCNormal. The results obtained by the Enelvo system were considerably higher, with a correction rate between 67 % and 97 % for different types of noise, with less dependence on resources and greater flexibility in normalization.
|
6 |
Investigação experimental usando algoritmos populacionais em ambientes ruidososNascimento, Eduardo Mendel do 01 July 2011 (has links)
Made available in DSpace on 2016-12-23T14:33:45Z (GMT). No. of bitstreams: 1
DissertacaoEduardoMendel.pdf: 3360430 bytes, checksum: 4b59bc4936fee015191ac31e1e6924b4 (MD5)
Previous issue date: 2011-07-01 / O objetivo principal deste trabalho é a realização de um estudo investigativo experimental de algoritmos populacionais em ambientes ruidosos. Quatro versões do algoritmo Particle Swarm (PSO) foram adotadas nos experimentos. São elas: PSO canônico (topologia global), PSO padrão (topologia local), Bare Bones (BBPSO) e Fully Informed Particle Swarm (FIPS). Através de cooperação, as abordagens de otimização baseadas em população frequentemente encontram soluções satisfatórias com eficácia e eficiência. Entretanto, a maioria das versões desenvolvidas nos últimos anos apresenta dificuldades na otimização de funções com muitos mínimos locais em espaços de alta dimensão. Foi analisado o comportamento de uma estratégia denominada de estratégia de jump em ambientes incertos com a finalidade de estudar melhorias no desempenho dos métodos investigados, tanto no contexto estático quanto ruidoso. Inicialmente, os algoritmos populacionais foram investigados com a estratégia de jump com objetivo de escapar de mínimos locais. O jump é utilizado quando não são observadas melhorias durante o processo de otimização. Essa abordagem foi apresentada primeiramente com base nas distribuições de probabilidade Gaussiana e de Cauchy. Testes experimentais foram conduzidos em um conjunto bem conhecido de problemas multimodais, com muitos mínimos locais. Os resultados obtidos sugerem que as versões híbridas dos algoritmos populacionais são capazes de superar o desempenho de suas respectivas versões originais. Conclui-se que a estratégia de jump é bastante eficaz no combate à convergência prematura. A melhoria no desempenho é consequência de um pequeno, mas importante, número de saltos bem sucedidos. Em virtude dos resultados promissores obtidos com os algoritmos populacionais combinados com a estratégia de jump, essa abordagem foi expandida e, ao invés, de gerar números randômicos segundo distribuições de probabilidade, optou-se por utilizar sequências caóticas. As quatro versões do PSO foram novamente investigadas com objetivo de analisar a habilidade da estratégia modificada em permitir que indivíduos em regime de estagnação escapem de atratores sub-ótimos. Resultados de simulação demonstram que a adição de saltos caóticos impulsiona o desempenho dos algoritmos em comparação com as abordagens utilizando distribuição de probabilidade. Além disso, a estratégia populacional com caos possui custo computacional inferior. Na sequência do trabalho, o foco é a investigação da introdução de jump com caos nos algoritmos populacionais aplicados, entretanto, a problemas de otimização ruidosos, com adição de incerteza às funções de teste. O método híbrido é analisado experimentalmente em diversas funções benchmarks. Resultados de simulação indicam que a adição da estratégia de jump é benéfica em termos de robustez. Em ambientes ruidosos, um algoritmo para ser considerado robusto precisa alcançar sistematicamente uma solução satisfatória. Não é suficiente obter bons resultados sob baixos níveis de ruídos e degradar a solução à proporção que o nível de ruído aumenta. Conclui-se que embora o desempenho dos algoritmos populacionais deteriore com o aumento no nível de ruído, as soluções encontradas pelas versões modificadas são superiores às soluções obtidas pelas versões originais. A estratégia de saltos, adicionada aos algoritmos populacionais, aplicada tanto em funções estáticas quanto em funções ruidosas demonstrou ser bastante eficiente e eficaz, pois aumenta a chance do algoritmo escapar de mínimos locais. A abordagem analisada é simples e de fácil implementação, sem nenhum acréscimo de esforço computacional. O uso de sequências caóticas em substituição às distribuições de probabilidade contribui para a eficiência da abordagem
|
7 |
Capacidade quântica de sigilo erro-zero e informação acessível erro-zero de fontes quânticas. / Quantum quantum-error-zero capability and accessible error-zero information from quantum sources.COSTA, Elloá Barreto Guedes da. 01 October 2018 (has links)
Submitted by Johnny Rodrigues (johnnyrodrigues@ufcg.edu.br) on 2018-10-01T14:15:29Z
No. of bitstreams: 1
ELLOÁ BARRETO GUEDES COSTA - TESE PPGCC 2013..pdf: 53314941 bytes, checksum: 3758326a173b3852e098b78e3e03a1fc (MD5) / Made available in DSpace on 2018-10-01T14:15:29Z (GMT). No. of bitstreams: 1
ELLOÁ BARRETO GUEDES COSTA - TESE PPGCC 2013..pdf: 53314941 bytes, checksum: 3758326a173b3852e098b78e3e03a1fc (MD5)
Previous issue date: 2013-11-13 / CNPq / A Teoria da Informação Quântica é uma área de pesquisa a qual considera o
estudo dos limites máximos possíveis para o processamento e transmissão da informação, considerando que esta última encontra-se representada de acordo com as leis da Mecânica Quântica. Uma das maneiras de contribuir com esta área de pesquisa
é no desenvolvimento de contrapartidas quânticas para os conceitos da Teoria da
Informação Clássica. Graças a esta abordagem é que foi proposta a Teoria da Informação
Quântica Erro-Zero, a qual considera o uso e as condições para que canais quânticos ruidosos possam transmitir informação clássica sem erros de decodificação. Apesar da proposição desta teoria e dos progressos recentes, foi identificado que o conhecimento das potencialidades, limitações e aplicações desta teoria ainda é incipiente. Na tentativa de minimizar este problema, esta tese apresenta dois novos conceitos ligados à Teoria da Informação Quântica Erro-Zero: (i) a capacidade quântica de sigilo erro-zero; e a (ii) informação acessível erro-zero de fontes quânticas. Em relação à primeira contribuição, tem-se o estabelecimento das condições necessárias para enviar informação por canais quânticos ruidosos sem que haja erros de decodificação e com sigilo absoluto, identificando uma nova capacidade de canais quânticos, estabelecendo a relação desta capacidade com a Teoria dos Grafos e identificando as situações em que esta possui caracterização de letra isolada. A segunda contribuição trata da proposição de uma medida de informação sobre fontes quânticas, a qual mensura o potencial de decodificar, sem erros, estados quânticos emitidos por estas fontes. Obter esta medida é um problema análogo ao de calcular a capacidade erro-zero de canais clássicos equivalentes e não há medida equivalente na Teoria da Informação Erro-Zero Clássica. Os conceitos propostos colaboram para o desenvolvimento da Teoria da Informação Quântica Erro-Zero em termos teóricos e práticos, uma vez que é possível considerar implementações de ambas contribuições com tecnologia existente atualmente. Além disto, intersecções da Teoria da Informação Quântica Erro-Zero junto à Criptografia, Teoria dos Grafos e Ciência
da Computação são identificadas. O estabelecimento de tais contribuições colabora
diretamente para a resolução de um dos desafios da Teoria da Informação Quântica,
o qual trata da determinação de limites para a classe de tarefas de processamento
de informação que são possíveis considerando a utilização da Mecânica Quântica. / Quantum Information Theory is a research area that investigates the limits of information processing and transmission considering the laws of Quantum Mechanics. The translation of concepts from Classical Information Theory is a widely known approach to contribute to Quantum Information Theory. Thanks to that, the Quantum Zero-Error Information Theory was proposed. This theory investigates the use and the conditions for classical information exchange through noisy quantum channels without decoding errors. Despite the recent developments, it wasidentified that the knowledge about its potentialities, limitations and applications is still incipient. In the attempt to minimize this problem, this thesis presents two new concepts related to the Quantum Zero-Error Information Theory: (i) the quantum
zero-error secrecy capacity; and the (ii) zero-error quantum accessible information.
Regarding the first contribution, there is the establishment of the required conditions
to send information through quantum channels without decoding errors and with perfect secrecy. This proposal identifies a new capacity of quantum channels, enlightens its relation with Graph Theory, and shows the situations where this capacity has single-letter characterization. Regarding the second contribution, there is the proposal of a quantum information measurement which quantifies the error-free decoding ability of a quantum source. Obtaining such measurement is a problem equivalent to the one of determining the zero-erro capacity of an equivalent classical channel and for which there is no counterpart in Classical Zero-Error Information Theory. The concepts proposed collaborate to Quantum Zero-Error Information Theory in theoretical and practical ways, since it is possible to implement both of them using current technology. Moreover, intersections with Cryptography, Graph Theory and Computer Science were identified. These concepts contribute straightforwardly to the resolution of a challenge of Quantum Information Theory which is the determination of the limits for the tasks of information processing that can be
accomplished considering the use of Quantum Mechanics.
|
Page generated in 0.0375 seconds