• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2072
  • 111
  • 100
  • 100
  • 99
  • 97
  • 51
  • 9
  • 3
  • 1
  • Tagged with
  • 2144
  • 2144
  • 682
  • 528
  • 528
  • 482
  • 433
  • 353
  • 342
  • 253
  • 248
  • 242
  • 241
  • 191
  • 180
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Innovative hybrid MOEA/AD variants for solving multi-objective combinatorial optimization problems

Souza, Murilo Zangari de January 2017 (has links)
Orientador : Aurora Trinidad Ramirez Pozo / Coorientador : Roberto Santana / Tese (doutorado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 16/12/2016 / Inclui referências : f. 103-116 / Resumo: Muitos problemas do mundo real podem ser representados como um problema de otimização combinatória. Muitas vezes, estes problemas são caracterizados pelo grande número de variáveis e pela presença de múltiplos objetivos a serem otimizados ao mesmo tempo. Muitas vezes estes problemas são difíceis de serem resolvidos de forma ótima. Suas resoluções tem sido considerada um desafio nas últimas décadas. Os algoritimos metaheurísticos visam encontrar uma aproximação aceitável do ótimo em um tempo computacional razoável. Os algoritmos metaheurísticos continuam sendo um foco de pesquisa científica, recebendo uma atenção crescente pela comunidade. Uma das têndencias neste cenário é a arbordagem híbrida, na qual diferentes métodos e conceitos são combinados objetivando propor metaheurísticas mais eficientes. Nesta tese, nós propomos algoritmos metaheurísticos híbridos para a solução de problemas combinatoriais multiobjetivo. Os principais ingredientes das nossas propostas são: (i) o algoritmo evolutivo multiobjetivo baseado em decomposição (MOEA/D framework), (ii) a otimização por colônias de formigas e (iii) e os algoritmos de estimação de distribuição. Em nossos frameworks, além dos operadores genéticos tradicionais, podemos instanciar diferentes modelos como mecanismo de reprodução dos algoritmos. Além disso, nós introduzimos alguns componentes nos frameworks objetivando balancear a convergência e a diversidade durante a busca. Nossos esforços foram direcionados para a resolução de problemas considerados difíceis na literatura. São eles: a programação quadrática binária sem restrições multiobjetivo, o problema de programação flow-shop permutacional multiobjetivo, e também os problemas caracterizados como deceptivos. Por meio de estudos experimentais, mostramos que as abordagens propostas são capazes de superar os resultados do estado-da-arte em grande parte dos casos considerados. Mostramos que as diretrizes do MOEA/D hibridizadas com outras metaheurísticas é uma estratégia promissora para a solução de problemas combinatoriais multiobjetivo. Palavras-chave: metaheuristicas, otimização multiobjetivo, problemas combinatoriais, MOEA/D, otimização por colônia de formigas, algoritmos de estimação de distribuição, programação quadrática binária sem restrições multiobjetivo, problema de programação flow-shop permutacional multiobjetivo, abordagens híbridas. / Abstract: Several real-world problems can be stated as a combinatorial optimization problem. Very often, they are characterized by the large number of variables and the presence of multiple conflicting objectives to be optimized at the same time. These kind of problems are, usually, hard to be solved optimally, and their solutions have been considered a challenge for a long time. Metaheuristic algorithms aim at finding an acceptable approximation to the optimal solution in a reasonable computational time. The research on metaheuristics remains an attractive area and receives growing attention. One of the trends in this scenario are the hybrid approaches, in which different methods and concepts are combined aiming to propose more efficient approaches. In this thesis, we have proposed hybrid metaheuristic algorithms for solving multi-objective combinatorial optimization problems. Our proposals are based on (i) the multi-objective evolutionary algorithm based on decomposition (MOEA/D framework), (ii) the bio-inspired metaheuristic ant colony optimization, and (iii) the probabilistic models from the estimation of distribution algorithms. Our algorithms are considered MOEA/D variants. In our MOEA/D variants, besides the traditional genetic operators, we can instantiate different models as the variation step (reproduction). Moreover, we include some design modifications into the frameworks to control the convergence and the diversity during their search (evolution). We have addressed some important problems from the literature, e.g., the multi-objective unconstrained binary quadratic programming, the multiobjective permutation flowshop scheduling problem, and the problems characterized by deception. As a result, we show that our proposed frameworks are able to solve these problems efficiently by outperforming the state-of-the-art approaches in most of the cases considered. We show that the MOEA/D guidelines hybridized to other metaheuristic components and concepts is a powerful strategy for solving multi-objective combinatorial optimization problems. Keywords: meta-heuristics, multi-objective optimization, combinatorial problems, MOEA/D, ant colony optimization, estimation of distribution algorithms, unconstrained binary quadratic programming, permutation flowshop scheduling problem, hybrid approaches.
22

Reduzindo colisões em redes locais sem fio através do alargamento das janelas de contenção por encurtamento dos slots e da divisão de tempo

Silva, Rafael Araújo da January 2017 (has links)
Orientadora: Profa. Dra. Michele Nogueira Lima / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 28/03/2017 / Inclui referências : p. 79-86 / Resumo: As Redes Locais Sem Fio (RLSF) são uma das principais formas de acesso à rede mundial de computadores na atualidade, presentes em praticamente todos os grandes centros urbanos. Contudo, a próxima geração de RLSF terá que prover protocolos de acesso ao meio escaláveis o suficiente para suportar a grande quantidade de dispositivos Wi-Fi esperada para os próximos cinco anos. Isto, porém, tem se mostrado um grande desafio, pois resultados de pesquisas indicam que o mecanismo atual de acesso ao meio destes dispositivos utiliza um processo de contenção ineficaz em ambientes com muitos usuários, tais como estádios e locais de eventos (redes densas). Este processo de contenção visa impedir que transmissões simultâneas, provenientes de diferentes terminais, causem interferências entre si, retendo-as em uma janela de tempo e liberando-as de forma controlada. Com isto, pretende-se aliviar a degradação do desempenho da rede causada por estas interferências. No entanto, os estudos publicados sobre o tema mostram que isto tem sido pouco eficaz à medida que a quantidade de transmissores concorrentes aumenta. Buscando uma solução para tal problema, este trabalho analisa e explora a proposta de alargamento das janelas de contenção através da redução da duração dos slots, a ser implementada pela futura emenda 802.11ax. Esta proposta tem o objetivo de mitigar as falhas de acesso ao meio, existentes no padrão atual, quando aplicado em redes densas. A mudança deve melhorar o desempenho da próxima geração de RLSF nestes cenários densos, o que é um dos objetivos da nova emenda. A análise aqui apresentada considera as diferentes classes de tráfego, ponderando as categorias de acesso para priorização de dados e suas respectivas janelas. O modelo matemático desenvolvido permite estimar as taxas de colisões de acordo com a densidade da rede. Os resultados de simulação indicam que a proposta atenua o problema das colisões inerentes ao processo de contenção e diminui a probabilidade de descartes de quadros. O estudo demostra os benefícios que a mudança alcança em termos de aumento da taxa de transferência e redução das retransmissões e também alerta para o seu possível impacto no processo de verificação do canal. Além do mais, a pesquisa aponta formas de melhorar a proposta em estudo para o 802.11ax, através de mecanismos de divisão de tempo que potencializam os seus ganhos em desempenho. Os resultados apresentam formas de aperfeiçoamento da solução, contribuindo com a literatura e assistindo no avanço da próxima geração de RLSF. Palavras-chave: 802.11ax, Protocolos MAC, Acesso ao Meio, Janela de Contenção. / Abstract: Wireless Local Area Networks (WLAN) are one of the main means of Internet access, present in virtually all major urban centers. However, the next generation of WLAN will have to provide medium access protocols scalable enough to support the large number of Wi-Fi devices expected over the next five years. But, this has been proven to be a major challenge. As research results state, the current medium access mechanism of these devices uses an inefficient contention process when applied in environments with many users, such as stadiums and event locations (dense networks). This process aims to prevent simultaneous transmissions from different terminals to avoid interference among them. It holds transmissions in a time window and releases them in a controlled way. Thus, this has intended to reduce the network performance degradation caused by these interferences. However, published studies on the subject show that this has been ineffective as increases the number of concurrent transmitters. Looking for a solution to this problem, this research analyzes and explores the proposal of contention windows enlargement through time slots reduction, to be implemented in the future 802.11ax amendment. The purpose of this proposal is to mitigate medium access failures, present in the current standard when it is applied in dense networks. This change must improve the performance of the next generation WLAN in these dense scenarios, which is one of the goals on the new amendment. Our analysis considers the different classes of traffic, reflecting on the access categories for data prioritization and their respective windows. A mathematical model was developed to estimate the collision rates accordingly to the network density. Simulation results indicate that the proposal reduces collisions issues inherent to the backoff procedure, and it decreases the frame loss. Our study shows the improvements achieved by this proposal as increased throughput and reduced retransmissions and also it warns to the impact on the clear channel assessment process. Further, the research points out how to improve the proposal, through time division mechanisms that potentiate their gains in performance. The results present ways of improving the solution, contributing to the literature and assisting in the advance of the next generation WLAN. Keywords: 802.11ax, MAC Protocols, Backoff, Contention Window.
23

Proteção de dados de autenticação em um sistema operacional usando enclaves SGX

Condé, Rafael Campra Reis January 2017 (has links)
Orientador : Carlos Alberto Maziero / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 11/12/2017 / Inclui referências : p. 91-95 / Resumo: Quando se trata sobre segurança computacional alguns aspectos devem ser observados. Um principio importante e manter a base de computação confiável (TCB) a menor possível. Desta forma a superfície de ataque fica reduzida, o que restringe as possibilidades de ataque do adversário e aumenta a segurança do sistema. Mesmo mantendo uma TCB pequena, não existe técnica de segurança que ofereça garantia de proteção contra qualquer tipo de adversário. Por este motivo, aplicações que requerem alto nível de sigilo devem dispor de um esquema de proteção projetado em diversas de camadas de segurança, de forma que o conteúdo sensível não seja comprometido mesmo considerando o caso do adversário explorar vulnerabilidades e violar uma das camadas de proteção. Em 2015 a Intel lançou em seus processadores a tecnologia Software Guard Extensions (SGX), que introduz um novo conjunto de instruções de CPU que permite que a aplicação utilize uma região encriptada de memoria, denominada enclave, que e protegida inclusive de códigos com alto nível de privilegio como do kernel e do sistema operacional. Junto ao SGX, a Intel prove, ainda, um mecanismo de criptografia de dados, denominado selagem, onde operações de cifragem ou decifragem são possíveis somente dentro dos enclaves. Em geral aplicações comuns tem em sua TCB além do próprio código, partes do sistema operacional, kernel e/ou hipervisor. O SGX proporciona a possibilidade de reduzir a TCB apenas a CPU e a fração sensível da aplicação, que será colocada dentro da região segura do enclave. Ainda, o SGX torna possível, através do processo de selagem, a adição de uma camada extra de segurança no armazenamento de informações sensíveis. Este trabalho propõe uma arquitetura de proteção de arquivos de senha valendo-se das possibilidades trazidas pela tecnologia Intel SGX e implementa, na forma de uma prova de conceito, um modulo de autenticação para o framework PAM do sistema operacional Linux, baseado no modulo pam_unix.so, que utiliza como referencia de autenticação um arquivo de credenciais protegido. Neste esquema o arquivo de senhas e armazenado selado através do SGX e todo o processo de validação de usuário e senha para autenticação e realizado seguramente dentro do enclave. E senso comum que segurança e desempenho em geral caminham em direções opostas, assim já era esperado custo para se trabalhar com regiões de memoria e arquivos encriptados. No entanto, o hardware SGX foi projetado para realizar operações criptográficas de maneira otimizada de forma a reduzir os impactos de desempenho. Usando um arquivo de credenciais de 500KB o tempo esperado para realização da autenticação aumentou de 1.4ms, no modulo original, para 27.1ms no protótipo implementado. O impacto no desempenho não e suficientemente grande para ser percebido pelo usuário, o que mostra que a solução e adequada para a finalidade proposta. A arquitetura apresentada neste trabalho também pode ser aplicada em outros sistemas de autenticação. Palavras-chave: Autenticação, Pluggable Authentication Module, PAM, Software Guard Extensions, SGX, Enclave, Criptografia, Proteção de credenciais. / Abstract: When it comes to computational security, some aspects must be observed. An important principle is to maintain the trusted computing base (TCB) as small as possible. With a reduced attack surface, attack possibilities are restricted and an improvement in the system security is achieved. Even keeping the TCB small, there is no security technique that guarantees protection against any type of adversary. For this reason, when it comes to applications that require high level of security, it is desirable that the protection scheme be designed with several layers of security. Thus, sensitive content will not be compromised, even considering that an adversary might find a vulnerability and violate some of the protection layers. In 2015, Intel released the Software Guard Extensions (SGX) technology in its processors, which introduces of a new set of CPU instructions that allows the application to allocate a private memory region, called enclave, that is protected even from high-level privileged kernel and operating system processes. Along with SGX, Intel also provided a mechanism of data encryption, called sealing, where encryption and decryption operations are possible only within enclaves. Usually, non-SGX applications include in its TCB not only the application code itself, but and also parts of the operating system, kernel and hypervisor. Thus SGX provides the possibility of reducing the TCB to just the CPU and to the sensitive fraction of the application, which is safely placed inside the enclave. In addition, SGX makes it possible to add an extra layer of security to sensitive information storage through the sealing process. This document presents a novel passwords file protection architecture leveraging IntelR SGX deliveries and implements, as a proof of concept, an authentication module for the Linux PAM framework based on pam_unix.so module. In this scheme, an extra layer of security is applied to the password file, by storing it sealed by the SGX mechanism. All user and password checking for authentication is securely done within the enclave. It is common sense that safety and performance in general walk in opposite directions. Obviously a cost was expected to work with memory regions and encrypted files. SGX hardware is designed to perform cryptographic operations efficiently to reduce performance impacts. Using a 500KB credential file the expected time to perform the authentication increased from 1.4ms in the original module to 27.1ms in the prototype. Despite the overhead the result is perfectly suitable for the proposed application. Finally, performance impacts were quantified due to the use of SGX. The architecture presented in this scheme is also worthy to many other authentication system. Keywords: Authentication, Pluggable Authentication Module, PAM, Software Guard Extensions, SGX, Enclave, Credencial file protection.
24

Técnicas de extração de características para cenários com multimodalidade intraclasse / Metodologia de extração de características para cenários com multimodalidade intraclasse

SILVA JÚNIOR, Elias Rodrigues da 23 February 2016 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-08-03T18:43:16Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Elias Rodrigues da Silva Júnior.pdf: 8422560 bytes, checksum: c5e4839cea4403e06669bc36217494c9 (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-08-09T17:19:08Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Elias Rodrigues da Silva Júnior.pdf: 8422560 bytes, checksum: c5e4839cea4403e06669bc36217494c9 (MD5) / Made available in DSpace on 2018-08-09T17:19:08Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Elias Rodrigues da Silva Júnior.pdf: 8422560 bytes, checksum: c5e4839cea4403e06669bc36217494c9 (MD5) Previous issue date: 2016-02-23 / CAPES / Técnicas de Extração de Características (TECs) clássicas não consideram a possibilidade dos padrões se dispersarem segundo distribuição multimodal. A falta de percepção quanto a esse tipo de comportamento frequentemente conduz a reduções de dimensionalidade para espaços que não preservam a multimodalidade. A não preservação da estrutura multimodal intraclasse implica na sobreposição entre suas modas, o que pode degradar o desempenho de classificação sobre essa classe. Encontra-se na literatura TECs que buscam por reduções dimensionais que minimizam as alterações nas relações métricas entre os padrões nesse novo espaço. Contudo, a realização desse objetivo não é suficiente para garantir a preservação da multimodalidade. Além disso, não foi encontrada na literatura TEC que avalie a dispersão dos padrões da classe e, em caso de multimodalidade, obtenha redução que preserve ao máximo esse comportamento. Uma possível razão para essa ausência é a complexidade associada a determinação da ocorrência de multimodalidade, principalmente em espaços multidimensionais. Estimar a multimodalidade em uma dispersão de padrões envolve questões como determinar: o número de modas na dispersão, a função de distribuição que cada moda segue, se a mistura dessas funções apresenta comportamento multimodal e quão evidente é esse comportamento. Na literatura, vários autores estimam multimodalidade através de reduções no escopo dessa tarefa, como restrições a: cenários bimodais e distribuições Normais. Adicionalmente, a restrição a espaços unidimensionais é comum a todas as técnicas de estimativa de multimodalidade encontradas. Desse modo, este trabalho apresenta uma metodologia para o desenvolvimento de TECs que buscam preservar o comportamento multimodal da dispersão dos padrões intraclasse. Para isso, são encontradas as direções ortogonais com maiores evidências de preservar o comportamento multimodal original. Essas direções são utilizadas como os vetores de base de espaços de redução dimensional que preservam ao máximo esse comportamento. Através dessa metodologia são propostas três TECs: Class-dependent Multimodal Decomposition (CdMD), Class-dependent Conditional Multimodal Decomposition (CdCMD) e Class-dependent Conditional Detachment of Modes (CdCDM). Essas TECs estendem Multimodal Decomposition (MD), que é uma TEC proposta para realizar a decomposição espacial orientada pela multimodalidade. Essas decomposições estão associadas a valores de estimativa de multimodalidade, os quais são obtidos com a métrica proposta, denominada Index of Area-based Normal Intersection (IANI). Os resultados experimentais mostram que IANI obteve sucesso em estimar a multimodalidade mesmo em cenários com acentuado desbalanceamento entre as modas. Isso contribuiu para MD obter desempenho superior ao PCA e LPP. Além disso, os maiores valores médios de desempenho em cenários de classificação foram alcançados com CdMD, CdCMD e CdCDM. / Classical Feature Extraction Techniques (FETs) do not consider the possibility of patterns scattered following multimodal distribution. No perception about this kind of behavior often leads to dimensionality reductions spaces that do not preserve multimodality. Do not preserve within-class multimodal structure implies overlap between classes modes, which can degrade performance classification over the class. There is in literature FETs that seek for dimensionality reductions which minimize the changes in metric relations between the patterns inside the new space. However, perform this goal is not enough to ensure preservation of multimodality. Besides that, there was not found in literature FET that evaluates scattering of class patterns and, in case of multimodality, it reaches reduction that preserve this behavior at most. A possible reason for this absence is related with the complexity to determine the occurrence of multimodality, mainly in multidimensional spaces. Estimate multimodality in a patterns scattering involves questions like determine: the number of modes in the scattering, the distribution function that each mode follows, if the mixture of these functions present multimodal behavior and how evident is this behavior. In literatura, many authors estimate multimodality through scope reductions of this task, like restrictions to: bimodal scenarios and Normal distributions. Additionally, the restriction to unidimensional spaces is common to all multimodal estimation techniques that were found. Thereby, this work presents a methodology to develop FETs that aim to preserve the multimodal behavior of within-class scattering of patterns. For this, the orthogonal directions with more evidence to preserve the original multimodal behavior are found. These directions are used as basis vectors of dimensional reduction spaces that preserve this behavior at most. Using this methodology, three FETs are proposed: TECs: Class-dependent Multimodal Decomposition, Class-dependent Conditional Multimodal Decomposition and Class-dependent Conditional Detachment of Modes. These FETs extend Multimodal Decomposition, an FET proposed to perform the spatial decomposition driven by multimodality. These decompositions are associated with multimodal estimation values, which are achieved with a proposed metric, called Index of Area-based Normal Intersection. Experimental results show IANI was well succeed in estimating multimodality even at scenarios with large unbalance between modes. This contributed to MD reach superior performances than PCA and LPP. Furthermore, the largest average values of performance for classification scenarios were achieved with CdMD, CdCMD e CdCDM.
25

Roteiro para desenvolvimento de componentes enterprise javabeans

Costa, Edjandir Corrêa January 2000 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação. / Made available in DSpace on 2012-10-17T21:02:40Z (GMT). No. of bitstreams: 1 203176.pdf: 743132 bytes, checksum: 4d608b11a991090f42b900bff5ecca63 (MD5) / Este trabalho apresenta um roteiro que mostra as atividades existentes no processo de desenvolvimento de componentes de negócio. O roteiro mostra, também, a seqüência de execução dessas atividades. O roteiro sugere, como forma de organização, a divisão do processo de desenvolvimento em quatro etapas: modelagem de negócio, projeto, implementação e instalação de componentes. O roteiro assume que os componentes sejam implementados de acordo com o modelo Enterprise Javabeans. Além do roteiro desenvolvido, este trabalho apresenta tecnologias envolvidas no processo de construção de componentes de negócio como objetos de negócio, objetos distribuídos e o modelo Enterprise Javabeans.
26

Condições de equivalência entre os princípios da indução fraca, da indução completa e da boa ordem

Silva, Álvaro Altair Ferreira da 25 October 2012 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2010 / Made available in DSpace on 2012-10-25T06:43:56Z (GMT). No. of bitstreams: 1 284555.pdf: 249411 bytes, checksum: 1d7e88413458866467e3ec7ac5dcbd19 (MD5) / Sabe-se que, em alguns ambientes, tais como os números naturais e os números ordinais, os princípios da indução fraca, da indução completa e da boa ordem são todos verdadeiros. Com base em certas condições, cada um destes três princípios implica nos outros dois, porém não está claro nas referências consultadas quais são estas condições. Neste trabalho é fornecido um ambiente com requisitos mínimos em que estes três princípios são equivalentes, no sentido de que todos são válidos, ou todos são não válidos. São apresentadas em detalhes algumas estruturas algébricas, da mais geral às mais particulares, nas quais estes três princípios são válidos. Para algumas destas estruturas é provada a validade das leis de indução dupla, nas versões fraca e completa. Nos ditos sistemas quase transfinitos
27

Escalonamento redirecionável de código sob restrições de tempo real

Carlomagno Filho, José Otávio January 2007 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação. / Made available in DSpace on 2012-10-23T00:58:50Z (GMT). No. of bitstreams: 1 238111.pdf: 2161716 bytes, checksum: 597716c5a6074a9e93a760112ded0c97 (MD5) / A evolução dos sistemas computacionais deu origem aos systems-on-chip ou SoCs, onde diversos componentes (como memória, barramentos e processador(es)) estão presentes em um único circuito integrado. Os SoCs possivelmente contêm múltiplos processadores de diferentes tipos, portanto a exploração de seu espaço de projeto requer ferramentas redirecionáveis. O aumento da complexidade de tais sistemas, juntamente com a diminuição do time-to-market e a necessidade de iniciar-se o desenvolvimento do software embarcado o mais cedo possível, deu origem à modelagem no nível de transações ou TLM (transaction-level modeling). O projeto inicia-se com um modelo TLM atemporal, mas a posterior anotação de restrições temporais exige que o software embarcado seja revisado, sendo úteis ferramentas de análise de restrições temporais pós-compilação. Esta dissertação descreve uma técnica automaticamente redirecionável que combina análise de restrições temporais e escalonamento de código assembly. A técnica baseia se na extração de informações específicas da arquitetura-alvo através de uma descrição formal do processador e na codificação de restrições temporais e de precedência em uma representação unificada usando grafos. Resultados experimentais mostram que a técnica não somente lida eficientemente com restrições temporais, mas também as explora para guiar as otimizações. São apresentados resultados para os processadores MIPS, PowerPC e SPARC, onde acelerações na execução do código de até 1,3 vezes foram obtidas em relação ao código pré-otimizado. Este trabalho aborda ainda um estudo da viabilidade de se integrar a técnica proposta em um tradutor binário, contribuindo para que, ao se traduzir código compilado de uma arquitetura para outra, o código traduzido resulte otimizado. Resultados preliminares são apresentados como um forte indício de viabilidade.
28

Utilitários binários redirecionáveis

Casarotto, Daniel Carlos January 2007 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação / Made available in DSpace on 2012-10-23T01:27:57Z (GMT). No. of bitstreams: 1 238882.pdf: 815899 bytes, checksum: 41a97cd402454809df86b7e8faa93de2 (MD5) / Essa dissertação propõe uma técnica de geração automática de linkeditores a partir da descrição formal de uma CPU por meio de uma linguagem de descrição de arquiteturas (ADL). A idéia-chave para tal geração é a generalização da noção de modificadores para descrever relocações em um nível mais alto de abstração. A implementação da técnica baseia-se na ADL ArchC e no conhecido pacote GNU Binutils. Para o redirecionamento, reusa-se as bibliotecas independentes de arquitetura e gera-se automaticamente as bibliotecas dependentes da CPU-alvo. A corretude e a robustez da técnica foram comprovadas para três CPUs (MIPS, SPARC e POWERPC) rodando programas do benchmark MiBench. Para a validação experimental, foram comparados com sucesso os arquivos executáveis produzidos pela ferramenta gerada com aqueles produzidos pela ferramenta congênere já disponível no pacote GNU Binutils. Além disso, propõe-se uma técnica de tradução binária baseada em redirecionamento automático. Mostra-se como utilitários binários (desenvolvidos nesta e em outras dissertações) podem ser encadeados para dar origem a um tradutor binário estático. Resultados experimentais preliminares indicam a viabilidade da técnica.
29

Topologias dinâmicas de infra-estrutura de Chaves Públicas

Carlos, Marcelo Carlomagno January 2007 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação. / Made available in DSpace on 2012-10-23T02:43:09Z (GMT). No. of bitstreams: 1 245551.pdf: 588753 bytes, checksum: b88ec712f3f85bb8d6231741091cf521 (MD5) / Esta dissertação de mestrado contém propostas para que a gerência do ciclo de vida de uma Infra-estrutura de Chaves Públicas seja tratada dinamicamente, tornando possível a substituição eficiente de certificados e chaves criptográficas de suas entidades, sem comprometer a topologia como um todo. As técnicas e métodos previstos na literatura são eficientes mas existem situações nas quais estas técnicas não possuem a abrangência necessária para solucionar determinados problemas. Devido a isso, foi realizada uma nova classificação para a separação entre as possíveis operações de substituição de chaves e certificados, e para os casos não previstos, foram propostos novos métodos e procedimentos. A partir dos resultados obtidos, são apresentadas novas aplicações práticas derivadas destas técnicas com a finalidade de torná-las ainda mais dinâmicas e atender as demandas de aplicações reais. Na parte final deste trabalho, são apresentados os mecanismos de testes e validação aplicados sobre estas propostas, de forma a mostrar sua eficácia e integração com as principais aplicações práticas atualmente em uso.
30

Estudo do desempenho do algoritmo agrupamento em duas etapas através de comparações realizadas sob a metodologia de planejamento de experimentos

Silva, Rafael Leão Brazão e January 2007 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação. / Made available in DSpace on 2012-10-23T02:56:05Z (GMT). No. of bitstreams: 1 247090.pdf: 996995 bytes, checksum: 4fbf0bcfa20b77a8c25323d7dc737c00 (MD5) / O algoritmo ADE é um algoritmo de agrupamentos para se trabalhar com grandes bases de dados, as quais podem ter variáveis tanto quantitativas como categóricas. Nesta dissertação é realizado um estudo para verificar a adequação do ADE em problemas comuns à Análise de Agrupamentos. Para atingir esse objetivo, o desempenho do ADE foi comparado com os algoritmos K-médias e CLARA, em termos da acurácia e do tempo de processamento, através do uso de simulações Monte Carlo, realizadas sob a metodologia de Planejamento de Experimentos. Foram investigados os efeitos do número de registros, do número de grupos, do número de variáveis, da presença de variáveis categóricas, de grupos com diferentes variâncias, da correlação entre variáveis e da distribuição geradora dos dados. Verificou-se que o ADE tem melhor acurácia que os outros dois algoritmos quando as variâncias dos agrupamentos são diferentes e que essa vantagem do ADE diminui quando o número de variáveis aumenta. Verificou-se nos softwares utilizados, que o ADE é mais lento que os outros dois algoritmos, porém quando se aumenta o número de registros e o número de grupos, o aumento proporcional do tempo no ADE é menor do que nos outros dois algoritmos.

Page generated in 0.0571 seconds