• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 48
  • 11
  • 1
  • Tagged with
  • 61
  • 61
  • 28
  • 25
  • 20
  • 13
  • 11
  • 10
  • 9
  • 8
  • 8
  • 8
  • 7
  • 7
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Análise da complexidade computacional de problemas de estatística descritiva com entradas intervalares

Loreto, Aline Brum January 2006 (has links)
A Estatística é uma ferramenta indispensável em todos os campos científicos. A Estatística descritiva é usada para sintetizar dados. O principal problema desta área está relacionado aos valores de uma amostra, os quais geralmente possuem erros que ocorrem durante a obtenção dos dados. Um dos objetivos deste trabalho é apresentar uma forma de representação para os valores amostrais que considera os erros contidos nestes valores. Esta representação é realizada através de intervalos. A literatura mostra que foram realizadas pesquisas somente em problemas de calcular os valores intervalares das medidas de dispersão variância, covariância e coeficiente de correlação, que a utilização da computação intervalar na solução de problemas de medidas de dispersão intervalar sempre fornece solução com intervalos superestimados (intervalos com amplitude grande), e que ao procurar uma solução com intervalos de amplitude pequena (através da computação da imagem intervalar), o problema passa a pertencer a classe de problemas NP-Difícil. Com o objetivo principal de analisar a complexidade computacional dos problemas de computar os valores dos indicadores estatísticos descritivos com entradas intervalares, e realizar uma classificação quanto a classe de complexidade, a presente tese apresenta: i) definições intervalares de medidas de tendência central, medidas de dispersão e separatrizes; ii) investigação da complexidade de problemas das medidas de tendência central média, mediana e moda, das medidas de dispersão amplitude, variância, desvio padrão, coeficiente de variação, covariância, coeficiente de correlação e das separatrizes e iii) representação intervalar dos valores reais, de tal modo que garante a qualidade de aproximação nos intervalos solução calculado através da extensão intervalar Primeiramente, apresentamos uma abordagem intervalar para os indicadores estatísticos e propomos algoritmos para a solução dos problemas de computar os intervalos de medidas de tendência central intervalar, dispersão intervalar e separatrizes intervalares. Tais algoritmos utilizam a aritmética intervalar definida por Moore, a extensão intervalar e foram projetados para serem executados em ambientes intervalares como IntLab e Maple Intervalar. Por meio da análise da complexidade computacional verificamos que os problemas de medidas de tendência central, dispersão e separatrizes, com entradas intervalares, pertencem à classe de problemas P. Este trabalho apresenta, portanto, algoritmos de tempo polinomial que calculam os intervalos dos indicadores estatísticos com entradas intervalares, e que retornam como solução intervalos com qualidade de aproximação. Os resultados obtidos no desenvolvimento do trabalho tornaram viável a computação da Estatística Descritiva Intervalar.
2

Análise da complexidade computacional de problemas de estatística descritiva com entradas intervalares

Loreto, Aline Brum January 2006 (has links)
A Estatística é uma ferramenta indispensável em todos os campos científicos. A Estatística descritiva é usada para sintetizar dados. O principal problema desta área está relacionado aos valores de uma amostra, os quais geralmente possuem erros que ocorrem durante a obtenção dos dados. Um dos objetivos deste trabalho é apresentar uma forma de representação para os valores amostrais que considera os erros contidos nestes valores. Esta representação é realizada através de intervalos. A literatura mostra que foram realizadas pesquisas somente em problemas de calcular os valores intervalares das medidas de dispersão variância, covariância e coeficiente de correlação, que a utilização da computação intervalar na solução de problemas de medidas de dispersão intervalar sempre fornece solução com intervalos superestimados (intervalos com amplitude grande), e que ao procurar uma solução com intervalos de amplitude pequena (através da computação da imagem intervalar), o problema passa a pertencer a classe de problemas NP-Difícil. Com o objetivo principal de analisar a complexidade computacional dos problemas de computar os valores dos indicadores estatísticos descritivos com entradas intervalares, e realizar uma classificação quanto a classe de complexidade, a presente tese apresenta: i) definições intervalares de medidas de tendência central, medidas de dispersão e separatrizes; ii) investigação da complexidade de problemas das medidas de tendência central média, mediana e moda, das medidas de dispersão amplitude, variância, desvio padrão, coeficiente de variação, covariância, coeficiente de correlação e das separatrizes e iii) representação intervalar dos valores reais, de tal modo que garante a qualidade de aproximação nos intervalos solução calculado através da extensão intervalar Primeiramente, apresentamos uma abordagem intervalar para os indicadores estatísticos e propomos algoritmos para a solução dos problemas de computar os intervalos de medidas de tendência central intervalar, dispersão intervalar e separatrizes intervalares. Tais algoritmos utilizam a aritmética intervalar definida por Moore, a extensão intervalar e foram projetados para serem executados em ambientes intervalares como IntLab e Maple Intervalar. Por meio da análise da complexidade computacional verificamos que os problemas de medidas de tendência central, dispersão e separatrizes, com entradas intervalares, pertencem à classe de problemas P. Este trabalho apresenta, portanto, algoritmos de tempo polinomial que calculam os intervalos dos indicadores estatísticos com entradas intervalares, e que retornam como solução intervalos com qualidade de aproximação. Os resultados obtidos no desenvolvimento do trabalho tornaram viável a computação da Estatística Descritiva Intervalar.
3

Análise da complexidade computacional de problemas de estatística descritiva com entradas intervalares

Loreto, Aline Brum January 2006 (has links)
A Estatística é uma ferramenta indispensável em todos os campos científicos. A Estatística descritiva é usada para sintetizar dados. O principal problema desta área está relacionado aos valores de uma amostra, os quais geralmente possuem erros que ocorrem durante a obtenção dos dados. Um dos objetivos deste trabalho é apresentar uma forma de representação para os valores amostrais que considera os erros contidos nestes valores. Esta representação é realizada através de intervalos. A literatura mostra que foram realizadas pesquisas somente em problemas de calcular os valores intervalares das medidas de dispersão variância, covariância e coeficiente de correlação, que a utilização da computação intervalar na solução de problemas de medidas de dispersão intervalar sempre fornece solução com intervalos superestimados (intervalos com amplitude grande), e que ao procurar uma solução com intervalos de amplitude pequena (através da computação da imagem intervalar), o problema passa a pertencer a classe de problemas NP-Difícil. Com o objetivo principal de analisar a complexidade computacional dos problemas de computar os valores dos indicadores estatísticos descritivos com entradas intervalares, e realizar uma classificação quanto a classe de complexidade, a presente tese apresenta: i) definições intervalares de medidas de tendência central, medidas de dispersão e separatrizes; ii) investigação da complexidade de problemas das medidas de tendência central média, mediana e moda, das medidas de dispersão amplitude, variância, desvio padrão, coeficiente de variação, covariância, coeficiente de correlação e das separatrizes e iii) representação intervalar dos valores reais, de tal modo que garante a qualidade de aproximação nos intervalos solução calculado através da extensão intervalar Primeiramente, apresentamos uma abordagem intervalar para os indicadores estatísticos e propomos algoritmos para a solução dos problemas de computar os intervalos de medidas de tendência central intervalar, dispersão intervalar e separatrizes intervalares. Tais algoritmos utilizam a aritmética intervalar definida por Moore, a extensão intervalar e foram projetados para serem executados em ambientes intervalares como IntLab e Maple Intervalar. Por meio da análise da complexidade computacional verificamos que os problemas de medidas de tendência central, dispersão e separatrizes, com entradas intervalares, pertencem à classe de problemas P. Este trabalho apresenta, portanto, algoritmos de tempo polinomial que calculam os intervalos dos indicadores estatísticos com entradas intervalares, e que retornam como solução intervalos com qualidade de aproximação. Os resultados obtidos no desenvolvimento do trabalho tornaram viável a computação da Estatística Descritiva Intervalar.
4

Caracterização aritmética em primeira ordem de funções computáveis em espaço polinomial

Felix Lopes da Silva, Emmanuel 31 January 2008 (has links)
Made available in DSpace on 2014-06-12T15:48:52Z (GMT). No. of bitstreams: 1 license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2008 / Nesta tese desenvolvemos uma caracterização das funções computáveis em espaço polinomial por meio da lógica de primeira ordem de seqüência binárias. Provamos, também, um resultado análogo ao Teorema de Parikh sobre limitação polinomial no tamanho de crescimento das funções de…níveis em tal sistema. Este trabalho é uma extensão natural do sistema desenvolvido pelo Professor Fernando Ferreira da Universidade de Lisboa, que trata das funções computáveis em tempo polinomial
5

Codificação de vídeo

Moecke, Marcos 24 October 2012 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Engenharia Elétrica, Florianópolis, 2009. / Made available in DSpace on 2012-10-24T15:54:05Z (GMT). No. of bitstreams: 1 273596.pdf: 2165612 bytes, checksum: 0b27c3621281277e401d3dadde5242a4 (MD5) / O presente trabalho propõe duas novas estratégias para compressão de sinais de vídeo através de algoritmos otimizados em taxa-distorção (RD), focando aplicações típicas de vídeo digital para operação em baixas taxas de bits. As estratégias propostas são implementadas em um codificador de vídeo baseado no padrão H.264, o qual apresenta uma alta complexidade computacional devido principalmente ao grande número de modos de codificação disponível. São apresentadas duas propostas de redução da complexidade, mantendo o desempenho RD próximo àquele do codificador H.264 otimizado em RD usando busca exaustiva. A primeira proposta (denominada rate sorting and truncation - RST) realiza o ordenamento tanto dos vetores de movimento (VMs) quanto dos modos de codificação em ordem ascendente de taxa de bits. O processo de codificação é interrompido quando a taxa de bits dos novos VMs e modos de codificação exceder à menor taxa já obtida para um pré-estabelecido nível de qualidade de imagem. Assim, um grande número de VMs e diversos modos de codificação são descartados antes que sejam avaliados. A segunda proposta consiste em um algoritmo rápido, baseado no perfil de distribuição de vetores do codificador H.264, para estimação de movimento (denominado logarithmic diamond shape search - LDSS). O uso da estratégia RST associada ao algoritmo LDSS reduz até 98% a carga computacional com perda marginal de desempenho RD. / This research work proposes two new video compression strategies, aiming at typical low bit rate video applications using rate-distortion (RD) optimized algorithms. The proposed strategies are implemented on an H.264 video encoder, which has high computational complexity due mainly to the large number of coding modes available. Two approaches are presented for reducing the encoder computational complexity, maintaining the RD performance close to the full search RD optimized H.264 encoder. The first approach (termed rate sorting and truncation - RST) is based on sorting the motion vectors (MVs) and coding modes in an ascending rate order. This sorting and encoding process, which is stopped when the rate value exceeds the previous best rate for a required image quality level, allows the elimination of MVs and coding modes before checking their distortion. Apart from obtaining a significant complexity reduction, the process still remains optimized in RD sense. The second approach is an algorithm (termed logarithmic diamond shape search - LDSS), which explores the MVs distribution profile for the RD optimized H.264 encoder. The use of the RST strategy associated with LDSS algorithm yields up to a 98% reduction in the computational burden, with insignificant RD performance loss.
6

O problema do logaritmo discreto

Dullius, Maria Madalena January 2001 (has links)
Existem muitos sistemas de criptografia cuja segurança é baseada na dificuldade em resolver logaritmos discretos. Neste trabalho descrevemos alguns métodos para calcular logaritmos discretos, a saber: Algoritmo Shanks, Algoritmo Pollard, Algoritmo Silver-Pohlig-Hellman e o Algoritmo Index Calculus. Também são relatadas questões de complexidade computacional e os últimos recordes alcançados para resolver logaritmos discretos. / There are many cryptosystems whose security is based on the difficulty of solving the discrete logarithm. In this work, we describe some methods to calculate discrete logarithms: Shanks's Algorithm, Pollard's Algorithm, Silver-PohligHellman's Algorithm and the Index Calculus Algorithm. We also relate computation complexity issues and the last records that have been obtained on the discrete logarithm problem.
7

A study on independent component analysis over galois fields / Um estudo em análise de componentes independentes em corpos de galois

Rezaee, Sayed Majid 10 December 2015 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, 2015. / Submitted by Fernanda Percia França (fernandafranca@bce.unb.br) on 2016-02-22T20:16:00Z No. of bitstreams: 1 2015_SayedMajidRezaee.pdf: 1299294 bytes, checksum: 5ae8992f8de2423bc23cf06bdeaeeb09 (MD5) / Approved for entry into archive by Marília Freitas(marilia@bce.unb.br) on 2016-05-26T16:32:15Z (GMT) No. of bitstreams: 1 2015_SayedMajidRezaee.pdf: 1299294 bytes, checksum: 5ae8992f8de2423bc23cf06bdeaeeb09 (MD5) / Made available in DSpace on 2016-05-26T16:32:15Z (GMT). No. of bitstreams: 1 2015_SayedMajidRezaee.pdf: 1299294 bytes, checksum: 5ae8992f8de2423bc23cf06bdeaeeb09 (MD5) / Nas últimas décadas, o problema de separação cega de fontes (BSS, do inglês Blind Source Separation) – que trata de estimar um conjunto desconhecido de fontes de sinais a partir de versões misturadas destes – tornou-se relevante em vários campos da engenharia, incluindo o processamento matricial, comunicações sem fio, processamento de sinais médicos, processamento de voz e engenharia biomédica. A fim de resolver o problema de BSS no contexto de modelos lineares, considerando-se várias técnicas possíveis, a Análise de Componentes Independentes (ICA, do inglês Independent Component Analysis) – que utiliza a independência estatística das fontes como uma premissa – demonstrou ser uma das mais importantes estratégias de solução. Além disso, embora o modelo de BSS/ICA para sinais reais ou complexos esteja bem estabelecido, a recente perspectiva de uma formulação do problema com sinais e modelos definidos em corpos de Galois oferece várias possibilidades de análise e contribuições. Esta dissertação de mestrado realiza um estudo da Análise de Componentes Independentes em corpos de Galois, considerando os conceitos teóricos e abordagens para o problema, assim como dos algoritmos estado-da-arte até agora propostos, em termos de suas capacidades de separação e custo computacional. Especificamente, as técnicas dos algoritmos AMERICA e MEXICO são estudadas juntamente com o algoritmo cobICA. Como as simulações experimentais indicam, devido à sua complexidade computacional menor e uma qualidade de desempenho satisfatório, o algoritmo cobICA apresenta-se como uma solução de compromisso entre os algoritmos AMERICA e MEXICO para executar BSS/ICA em corpos de Galois. / Over the past decades, the Blind Source Separation (BSS) problem – which deals with estimating an unknown set of source signals from their measured mixtures –has become prevalent in several engineering fields, including array processing, wireless communications, medical signal processing, speech processing and biomedical engineering. In order to solve the BSS problem in the context of linear models, considering several possible techniques, Independent Component Analysis (ICA) – which uses statistical independence of the source signals as a premise – has been shown to be one of the most important approaches. Furthermore, although the BSS/ICA framework for real- or complex-valued signals is firmly established, the recent perspective of a BSS/ICA formulation where the signals and models are defined over Galois fields gives several possibilities of analyzes and contributions. This Master’s thesis performs a study on Independent Component Analysis over Galois fields, considering the theoretical concepts and aspects of the problem and the investigation, in terms of capability and efficiency, of the state-of-the-art algorithms so far introduced. In this context, AMERICA and MEXICO techniques are studied, along with cobICA algorithm – a bioinspired framework based on cob-aiNet[C] immune-inspired algorithm –, mainly focusing on comparing the quality of separation and on discussing the computational burden of each technique. As the experimental simulations indicate, due to its lower computational complexity and a satisfactory performance quality, cobICA takes place as a compromise solution between AMERICA and MEXICO algorithms, to perform BSS/ICA over Galois fields.
8

O problema do logaritmo discreto

Dullius, Maria Madalena January 2001 (has links)
Existem muitos sistemas de criptografia cuja segurança é baseada na dificuldade em resolver logaritmos discretos. Neste trabalho descrevemos alguns métodos para calcular logaritmos discretos, a saber: Algoritmo Shanks, Algoritmo Pollard, Algoritmo Silver-Pohlig-Hellman e o Algoritmo Index Calculus. Também são relatadas questões de complexidade computacional e os últimos recordes alcançados para resolver logaritmos discretos. / There are many cryptosystems whose security is based on the difficulty of solving the discrete logarithm. In this work, we describe some methods to calculate discrete logarithms: Shanks's Algorithm, Pollard's Algorithm, Silver-PohligHellman's Algorithm and the Index Calculus Algorithm. We also relate computation complexity issues and the last records that have been obtained on the discrete logarithm problem.
9

O problema do logaritmo discreto

Dullius, Maria Madalena January 2001 (has links)
Existem muitos sistemas de criptografia cuja segurança é baseada na dificuldade em resolver logaritmos discretos. Neste trabalho descrevemos alguns métodos para calcular logaritmos discretos, a saber: Algoritmo Shanks, Algoritmo Pollard, Algoritmo Silver-Pohlig-Hellman e o Algoritmo Index Calculus. Também são relatadas questões de complexidade computacional e os últimos recordes alcançados para resolver logaritmos discretos. / There are many cryptosystems whose security is based on the difficulty of solving the discrete logarithm. In this work, we describe some methods to calculate discrete logarithms: Shanks's Algorithm, Pollard's Algorithm, Silver-PohligHellman's Algorithm and the Index Calculus Algorithm. We also relate computation complexity issues and the last records that have been obtained on the discrete logarithm problem.
10

Complexidade computacional e o problema P vs NP / Computational complexity and the P vs NP problem

Oliveira, Igor Carboni 08 February 2010 (has links)
Orientador: Arnaldo Vieira Moura / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matemática, Estatística e Computação Científica / Made available in DSpace on 2018-08-16T09:31:55Z (GMT). No. of bitstreams: 1 Oliveira_IgorCarboni_M.pdf: 1109272 bytes, checksum: 3ab44664e4e0b862409cc8038c431a06 (MD5) Previous issue date: 2010 / Resumo: A teoria de complexidade computacional procura estabelecer limites para a eficiência dos algoritmos, investigando a dificuldade inerente dos problemas computacionais. O problema P vs NP é uma questão central em complexidade computacional. Informalmente, ele procura determinar se, para uma classe importante de problemas computacionais, a busca exaustiva por soluções é essencialmente a melhor alternativa algorítmica possível. Esta dissertação oferece tanto uma introdução clássica ao tema, quanto uma exposição a diversos teoremas mais avançados, resultados recentes e problemas em aberto. Em particular, o método da diagonalização é discutido em profundidade. Os principais resultados obtidos por diagonalização são os teoremas de hierarquia de tempo e de espaço (Hartmanis e Stearns [54, 104]). Apresentamos uma generalização desses resultados, obtendo como corolários os teoremas clássicos provados por Hartmanis e Stearns. Essa é a primeira vez que uma prova unificada desses resultados aparece na literatura / Abstract: Computational complexity theory is the field of theoretical computer science that aims to establish limits on the efficiency of algorithms. The main open question in computational complexity is the P vs NP problem. Intuitively, it states that, for several important computational problems, there is no algorithm that performs better than a trivial exhaustive search. We present here an introduction to the subject, followed by more recent and advanced results. In particular, the diagonalization method is discussed in detail. Although it is a classical technique in computational complexity, it is the only method that was able to separate strong complexity classes so far. Some of the most important results in computational complexity theory have been proven by diagonalization. In particular, Hartmanis and Stearns [54, 104] proved that, given more resources, one can solve more computational problems. These results are known as hierarchy theorems. We present a generalization of the deterministic hierarchy theorems, recovering the classical results proved by Hartmanis and Stearns as corollaries. This is the first time that such unified treatment is presented in the literature / Mestrado / Teoria da Computação / Mestre em Ciência da Computação

Page generated in 0.0957 seconds