• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3014
  • 105
  • 2
  • Tagged with
  • 3122
  • 3122
  • 2809
  • 2809
  • 2809
  • 1921
  • 981
  • 550
  • 477
  • 466
  • 416
  • 400
  • 400
  • 368
  • 366
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Gernu : an approach to cloud management based on user requirements , dynamic creation of services and definition of quality attributes / Gernu: uma abordagem para gerenciamento de nuvens baseada nos requisitos do usuÃrio, criaÃÃo dinÃmica dos serviÃos e definiÃÃo de atributos de qualidade

Helder Pereira Borges 04 March 2013 (has links)
FundaÃÃo de Amparo à Pesquisa e ao Desenvolvimento CientÃfico e TecnolÃgico do MaranhÃo / Cloud Computing has been established in recent years as an important area of research. This paradigm has been consolidated, since tasks such as obtaining, handling, sharing and exploitation of large amounts of data are becoming increasingly common, requiring many computing resources. Considering this context, cloud computing can help providing these resources indefinitely, including memory, processing, storage and others, all of them for immediate use. The provision of cloud services involves several complex tasks. To increase the user satisfaction, these tasks need to consider issues relevant to them, in addition to the providers' policies. In order to define a flexible process for specification and procurement of services in clouds from the hardware and software requirements of users, this work proposes an approach that uses a virtual environment model containing all the relevant information to provide a personalized service. Another key challenge for cloud computing is related to the services quality control. This aspect may be directly affected by resource utilization. Thus, the use of automated mechanisms to provide services, monitoring resources, as well the quality of services also helps to increase the level of customer satisfaction, creating an environment less susceptible to errors for the administrators. Besides the aspects of hardware and software, the virtual environment model will contain the quality of service attributes, having been set an automated negotiation process that occurs concomitantly with the procurement service process. Thus, this approach will be able to automatically deliver infrastructure, platform and software as a service from the user's specific requirements. / A ComputaÃÃo em Nuvem foi estabelecida nos Ãltimos anos como uma importante Ãrea de pesquisa. Este paradigma tem se consolidado, pois, atualmente, tarefas como a obtenÃÃo, manipulaÃÃo, compartilhamento e exploraÃÃo de grandes quantidades de dados sÃo cada vez mais comuns, exigindo muitos recursos computacionais. Dentro deste contexto, a computaÃÃo em nuvem pode contribuir, pois pode fornecer estes recursos indefinidamente, incluindo memÃria, processamento, armazenamento entre outros, todos para uso imediato. A provisÃo de serviÃos em nuvens envolve vÃrias tarefas complexas. Para elevar a satisfaÃÃo dos usuÃrios, estas tarefas precisam considerar aspectos relevantes para eles, alÃm das polÃticas particulares dos provedores. Desta forma, com o objetivo de definir um processo flexÃvel para a especificaÃÃo e aquisiÃÃo de serviÃos nas nuvens, este trabalho propÃe uma abordagem que utiliza um modelo de ambiente virtual contendo todas as informaÃÃes relevantes para criaÃÃo de um serviÃo personalizado a partir dos requisitos de hardware e software do usuÃrio. Outro desafio importante para a computaÃÃo em nuvem està relacionado com o controle de qualidade dos serviÃos prestados, sendo que esta pode ser diretamente afetada pela utilizaÃÃo dos recursos. Sendo assim, a utilizaÃÃo de mecanismos automatizados para gerar serviÃos, monitorar os recursos e a qualidade dos serviÃos tambÃm contribui para incrementar o nÃvel de satisfaÃÃo dos clientes, alÃm de criar um ambiente menos suscetÃvel a erros para os administradores. AlÃm dos aspectos de hardware e software, o modelo de ambiente conterà os atributos de qualidade do serviÃo, tendo sido definido um processo de negociaÃÃo automatizado que ocorre concomitante ao processo de contrataÃÃo do serviÃo. Assim, esta abordagem serà capaz de entregar automaticamente infraestrutura, plataforma e software como serviÃo a partir dos requisitos especÃficos do usuÃrio.
2

Abordagens para a sintonia de comandos SQL

Arlino Henrique MagalhÃes de AraÃjo 30 November 2012 (has links)
nÃo hà / Sistemas Gerenciadores de Bancos de Dados (SGBDs) permitem especificar comandos, por meio de linguagens declarativas de alto nÃvel, como SQL Structured Query Language), por exemplo, com a finalidade de executar diferentes operaÃÃes sobre os dados armazenados (consultas, atualizaÃÃes, inserÃÃes e remoÃÃes). O otimizador de consultas à o mÃdulo do SGBD responsÃvel por escolher um plano de execuÃÃo eficiente para cada comando SQL a ser executado. Para este propÃsito, os otimizadores procuram, em um grande espaÃo de busca, o plano de execuÃÃo que proporcione o menor tempo de resposta. Dois comandos SQL sÃo considerados equivalentes se retornarem os mesmos resultados. Uma vez que a sintaxe de um comando SQL influencia a escolha do plano de execuÃÃo, o otimizador pode produzir planos de execuÃÃo distintos para comandos SQL equivalentes. Consequentemente, comandos SQL equivalentes podem apresentar tempos de resposta diferentes. Este fato decorre das operaÃÃes utilizadas em cada comando SQL (ordenaÃÃes, agregaÃÃes, remoÃÃo da valores duplicados, utilizaÃÃo de tabelas temporÃrias, subconsultas, dentre outras). Neste cenÃrio, mesmo usando mÃtodos de acesso e estratÃgias de avaliaÃÃao suportadas pelo SGBD, Ãs vezes, os otimizadores nÃo conseguem produzir planos Ãtimos. Nestes casos, deve ser realizado o ajuste (ou sintonia) do comando SQL. Para isso, em geral, duas estratÃgias sÃo frequentemente utilizadas: (a) reescrever o comando SQL; e (b) aplicar Query Hinting. A tÃcnica de reescrita consiste em escrever um novo comando SQL, equivalente ao comando SQL original, mas que apresente um tempo de resposta menor. Entretanto, o processo de reescrita de comandos SQL Ãcomplexo e requer bastante conhecimento em diferentes Ãreas, tais como: (i) otimizaÃÃo de consultas, execuÃÃo de operadores de planos de consultas, configuraÃÃo de parÃmetros e outros aspectos internos dos bancos de dados; (ii) identificaÃÃo de Ãndices necessÃrios e outras eâstruturas de acesso; (iii) manutenÃÃo de estatÃsticas sobre os dados; e (iv) caracterÃsticas dos sistemas de armazenamento de dados. Este trabalho propÃe duas abordagens distintas para suportar a reescrita de comandos SQL em bancos de dados relacionais: uma abordagem assistida e outra automÃtica. As duas abordagens propostas utilizam um conjunto de heurÃsticas para realizar a reescrita dos comandos SQL. As heurÃsticas sÃo constituÃdas de regras que visam identificar oportunidades de sintonia nos comandos SQL. Com o objetivo de avaliar a eficiÃncia das abordagens propostas uma avaliaÃÃo experimental foi realizada. Os experimentos foram conduzidos em trs diferentes cenÃrios: i) com o benchmark TPC-H, ii) com a base de dados do TPC-H e uma carga de trabalho sintÃtica e iii) com a base de dados do sistema SIG e uma carga de trabalho sintÃtica. Para cada cenÃrio, trÃs SGBDs foram avaliados: PostgreSQL, Oracle e SQL Server. Os resultados dos testes realizados mostram que tanto a abordagem assistida quanto a automÃtica proporcionaram ganhos de desempenho, reduzindo o tempo de resposta das cargas de trabalho avaliadas.
3

Convergent Sequences of Discrete Structures and Testability / SequÃncias Convergentes de Estruturas Discretas e Testabilidade

Antonio Josefran de Oliveira Bastos 27 February 2012 (has links)
FundaÃÃo Cearense de Apoio ao Desenvolvimento Cientifico e TecnolÃgico / In this work, we studied the recent theory of convergent graph sequences and its extensions to permutation and partially ordered sets with fix dimension. Weâve conjectured a lemma of weak regularity on intervals that, if this conjecture is true, we can extend this theory to ordered graphs, which are graphs such that there is a total order on its vertices. We show some interesting relations on permutation and partially ordered sets with ordered graphs. Then, we obtain another proof to the existence of limit objects for all convergent permutation sequences. We also proved that all hereditary property of either permutation or ordered graph is testable. / Neste trabalho, estudamos a teoria recente de convergÃncia de sequÃncias de grafos e suas extensÃes para permutaÃÃes e ordens parciais de dimensÃo fixa. Conjecturamos um lema de regularidade fraca de grafos em intervalos que, se for verdadeira, nos possibilita estender essa teoria para grafos ordenados, que sÃo grafos tais que existe uma ordem total entre os vÃrtices. Mostramos algumas relaÃÃes interessantes de permutaÃÃes e ordens parciais com grafos ordenados. Com isso, conseguimos uma prova alternativa para a existÃncia de objetos limites de qualquer sequÃncia convergente de permutaÃÃes. Provamos tambÃm que toda propriedade hereditÃria de permutaÃÃes ou grafos ordenados à testÃvel.
4

Algoritmos genéticos para o problema de Docking proteína-ligante

Camila Silva de Magalhães 31 October 2006 (has links)
Métodos de docking receptor-ligante são métodos computacionais para a identificação do modo de ligação de moléculas candidatas a fármacos, no sítio ativo de proteínas consideradas como alvos moleculares para o tratamento quimioterápico de doenças. Estes métodos são uma parte importante no Desenho Racional de Fármacos Baseado em Estruturas e possuem grande potencial para auxiliar na descoberta de novos medicamentos. Entretanto, a necessidade da inclusão dos graus de liberdade conformacionais relacionados à flexibilidade molecular, torna o problema de docking complexo e difícil de se resolver computacionalmente. Por outro lado, algoritmos genéticos são métodos computacionais estocásticos inspirados na teoria da evolução de Darwin, que têm sido aplicados com sucesso à uma grande variedade de problemas complexos em ciência e engenharia. O desenvolvimento de métodos de docking mais eficientes e com maior capacidade de predição constitui atualmente uma área de pesquisa altamente ativa. Neste trabalho, foram implementadas e analisadas várias estratégias em algoritmos genéticos (AG's) para o problema de docking receptor-ligante. Uma nova técnica para a preservação de múltiplas soluções foi desenvolvida. O método proposto é baseado na técnica de Seleção por Torneio Restrito (RTS) e tem como objetivo favorecer a preservação dos "nichos" e soluções de melhor qualidade na população. Os métodos implementados foram testados em estudos de "re-docking" e "cross-docking" de inibidores da enzima HIV-1 protease com alto grau de flexibilidade conformacional. Os resultados obtidos mostram que a utilização de técnicas de múltiplas soluções que permitem a preservação de diversidade "útil" podem ser uma ferramenta poderosa no "docking" de ligantes altamente flexíveis, geralmente associados à hipersuperfícies de energia complexas. Estas estratégias aumentam a probabilidade de se encontrar soluções próximas das estruturas determinadas experimentalmente, além de permitir a determinação e posterior investigação de distintos modos de ligação ligante-receptor.
5

Quantum games from biophysical Hamiltonians and a sub-neuronal optimization criterion of the information. / Jogos quânticos a partir de Hamiltonianos biofísicos e um critério de otimização sub-neuronal da informação

Jean Faber Ferreira de Abreu 10 October 2006 (has links)
The Theory of Games is a mathematical formalism used to analyze conflicts between two or more parts. In those conflicts, each part has a group of actions (strategies) that aids them in the optimization of their objectives. The objectives of the players are the rewards (payoffs) given according to their chosen strategy. By quantizing a game, advantages in operational efficiency and in the stability of the game solutions are demonstrated. In a quantum game, the strategies are operators that act on an isolated system. A natural issue is to consider a game in an open system. In this case the strategies are changed by Kraus operators which represent a natural measurement of the environment. We want to find the necessary physical conditions to model a quantum open system as a game. To analyze this issue we applied the formalism of Quantum Operations on the Fröhlich system and we described it as a model of Quantum Game. The interpretation is a conflict among different configurations of the environment which, by inserting noise in the main system exhibits regimes of minimum loss of information. On the other hand, the model of Fröhlich has been used to describe the biophysical dynamics of the neuronal microtubules. By describing the model of Fröhlich in the Quantum Game formalism, we have shown that regimes of stability may exist even under physiological conditions. From the evolutionary point of view, the Theory of Games can be the key to describe the natural optimization at sub-neuronal levels. / A Teoria de Jogos (TJs) é um formalismo matemático usado para analisar situações de conflitos entre duas ou mais partes. Nesses conflitos, cada parte possui um conjunto de ações (estratégias) que auxilia na otimização de seus objetivos. Os objetivos dos jogadres são as recompensas (payoffs) que cada um recebe de acordo com a estratégia adotada. Ao se quantizar um jogo, mostra-se ganhos em eficiência operacional e ganhos na estabilidade das soluções. Em um jogo quântico (JQ), as estratégias são operadores que atuam num sistema isolado. Uma questão natural é considerar um jogo num sistema aberto. Nesta situação as estratégias são trocadas por operadores de Kraus que representam uma medida natural do ambiente. Nosso interesse é encontrar as condições físicas necessáriaas para modelarmos um sistema quântico aberto como um jogo. Para analisar essa questão aplicamos o formalismo de Operações Quânticas (OQs) sobre o sistema de Fröhlich e o apresentamos como um modelo de JQ. A interpretação é um conflito entre diferentes configurações do ambiente que, ao inserirem ruído no sistema principal, exibem regiões de mínima perda de informação. O modelo de Fröhlich vem sendo usado para descrever a dinâmica biofísica dos microtúbulos neuronais. Ao estruturamos o modelo de Fröhlich nos JQs, mostramos que as regiões de estabilidade podem existir sob condições fisiológicas. Usando o aspecto evolucionista, a TJs pode ser a chave para a descrição de processos de otimização da informação em nível sub-neuronal.
6

Quantum computation in open systems and anapplication in the biological model of Fröhlich / Computação quântica em sistemas abertos e uma aplicação ao modelo biológico de Fröhlich

Jean Faber Ferreira de Abreu 13 May 2004 (has links)
Um computador quântico universal é capaz de efetuar qualquer cálculo que qualquer máquina de Turing clássica possa efetuar. Porém, sistemas quânticos, em geral, são descritos como sistemas isolados. A interação do meio com as superposições de estados reduz a função de onda para um único estado bem definido. Contudo nenhum sistema na natureza é de fato isolado. Assim, ruídos, dissipações e erros são 'inevitáveis' para quaisquer procedimentos que manipulem informação com quaisquer recursos naturais (quânticos ou clássicos). O formalismo conhecido por Operação Quântica (OQ) é usado para descrever a maioria dos sistemas quânticos abertos num formato de tempo discreto. A partir desse formato pode-se evidenciar operações e ruídos característicos de processos computacionais. Para mostrar a eficiência de uma OQ aplicamos o formalismo no modelo quântico-biológico de Fröhlich. A partir dessa caracterização construímos uma ponte entre computação quântica e processos biofísicos. Essa ponte pode revelar propriedades desconhecidas ou ajudar na compreensão da dinâmica ainda difusa de sistemas biológicos; ou mesmo em novas técnicas na construção de computadores quânticos. / An universal quantum computer is capable to perform any calculation that any classical turing machine can perform. However, the orthodox quantum mechanics is described for isolated systems. Therefore, the description of quantum computers is made starting from linear and reversible transformations. The interaction with the environment tends to eliminate the quantum effects as the superposition of states. However, any natural system is not infact isolated. Hence, noises, dissipations and errors are inevitable for any procedures that manipulate information with any natural resources. The formalism known by Quantum Operation (QO) issued to describe most of the open quantum systems. Through this format we can display the characteristic noises of the computational processes. To show the effectiveness of the QOs we applied the formalism in the quantum biological model of Fröhlich. Starting from that characterization we build a bridge between Quantum Computation and biological processes. That bridge can reveal unknown properties or to help in understanding the microbiologic dynamics; or even new techniques in the construction of quantum computers.
7

wine

billy, 44 07 June 2017 (has links)
Submitted by admin admin (admin@admin.n) on 2017-06-07T13:56:29Z No. of bitstreams: 1 rucker_ware_tetralogy_cc2010.pdf: 2120439 bytes, checksum: 6d3d589bde3643906bd56d2041b832cc (MD5) / Made available in DSpace on 2017-06-07T13:56:29Z (GMT). No. of bitstreams: 1 rucker_ware_tetralogy_cc2010.pdf: 2120439 bytes, checksum: 6d3d589bde3643906bd56d2041b832cc (MD5) Previous issue date: 2017-06-07 / eueueaoeuaouaoeuaoeu / aoeuaeou
8

Uma aplicaÃÃo para a LPR

Samy Soares Passos de SÃ 02 October 2008 (has links)
Conselho Nacional de Desenvolvimento CientÃfico e TecnolÃgico / Sistemas automatizados de apoio à decisÃo lidam com a representaÃÃo de conhecimento atravÃs de sistemas formais que permitam cÃlculo de inferÃncias, e atravÃs deste, a possibilidade de tirar conclusÃes de uma base de conhecimento. LÃgicas nÃo-monotÃnicas vÃm sendo discutidas como soluÃÃo para contornar os limites de expressividade da lÃgica clÃssica quanto à representaÃÃo de bases de conhecimento. A LPR (Logic of Plausible Reasoning) à uma proposta recente, que sugere uma estrutura de regra nÃo monotÃnica atravÃs do conceito de generalizaÃÃo e um cÃlculo de extensÃes prÃprio como soluÃÃo capaz de lidar com alguns dos principais problemas e limites expressivos dos formalismos que a antecederam. O presente trabalho à um dos primeiros a explorar o poder expressivo e potencial para a utilizaÃÃo dessa tÃcnica como ferramenta de modelagem de bases de conhecimento para sistemas de apoio à decisÃo. Introduzimos as regras de um jogo enquanto sistema formal adequado à anÃlise e ilustramos o funcionamento do raciocÃnio modelado pela LPR sobre o conhecimento corrente em vÃrios momentos do mesmo, permitindo modelar aspectos do pensamento tais como a formulaÃÃo de conjecturas, avaliaÃÃo de cenÃrios e mudanÃa de idÃia em decorrÃncia de novas descobertas. Apresentamos, ainda, um programa PROLOG que implementa o modelo descrito com regras LPR como instrumento de corretude do mesmo, utilizando uma tÃcnica de divisÃo do programa para formular na linguagem regras baseadas em quantificadores e equivalÃncia de variÃveis.
9

A Strategy for Detection Systems and Intrusion Prevention Based on Free Software / Uma EstratÃgia para Sistemas de DetecÃÃo e PrevenÃÃo de IntrusÃo Baseada em Software Livre

Daniel MourÃo Martins 30 November 2012 (has links)
nÃo hà / Due to the constant increase of the use of information systems and the potential impact that these intrusions can cause in all spheres of society a Intrusion Detection and Prevention System (IDPS) has become a necessity for network ans services security from various world organizations. These systems usually depends of prior knowledge of the patterns of attacks in order to detect them. This work presents an strategy to scenarios with computational and financial resources limited, using only opensource software for intrusion detection. This proposal is the creation of one flexible and scalable IDPS, with software integration, implementation of alerts correlation rules and a signatures generator module for Snort, that can increase its efficiency enabling it to produce knowledge for preventing the recurrence of some intrusion attacks not constant in original database, thus minimizing the detection problem for these attacks. To validate this proposal, a testing scenario was implemented with three server machines, one with the solution manager module and one with Snort. The results confirmed that this strategy meets the proposed requisites in a satisfactorily way being an important contribution to researchs about the theme. / Devido ao aumento constante da utilizaÃÃo dos sistemas de informaÃÃo em todas as esferas da sociedade e o potencial impacto que intrusÃes a esses sistemas podem causar, um Sistema de DetecÃÃo e PrevenÃÃo de IntrusÃo (IDPS) tornou-se uma necessidade para seguranÃa da infraestrutura de rede e serviÃos das mais diversas organizaÃÃes. Normalmente, esses sistemas dependem de conhecimento prÃvio dos padrÃes dos ataques para poder detectÃ-los. Este trabalho apresenta uma estratÃgia adequada, utilizando exclusivamente software livre, para a detecÃÃo de intrusÃes em cenÃrios com escassez de recursos computacionais e financeiros. Esta proposta consiste na criaÃÃo de um IDPS flexÃvel e escalÃvel que, com a integraÃÃo de sistemas, implementaÃÃo de regras de correlaÃÃo de alertas e um mÃdulo gerador de assinaturas para o Snort, pode-se aumentar a sua eficÃcia habilitando-o a produzir conhecimento para a prevenÃÃo da repetiÃÃo de ataques intrusivos nÃo constantes de sua base de dados original. Assim, minimiza-se a problemÃtica de detecÃÃo desses ataques. Para validar essa proposta, implementou-se um cenÃrio de testes com trÃs mÃquinas servidoras, uma com o mÃdulo gerenciador da soluÃÃo e outra com o Snort. Os resultados obtidos confirmaram que a estratÃgia atende aos quesitos propostos de maneira satisfatÃria sendo uma importante contribuiÃÃo para as pesquisas sobre o tema.
10

Limites inferiores para o problema de coloraÃÃo de vÃrtices via geraÃÃo de cortes e colunas / Inferior limits for the problem of vertex coloring saw generation of cuts and columns

Carlos Diego Rodrigues 22 November 2008 (has links)
Neste trabalho abordamos o problema de coloraÃÃo de vÃrtices via programaÃÃo inteira. Uma versÃo expandida da formulaÃÃo por conjuntos independentes à utilizada para abrigar outras sub-estruturas do grafos alÃm dos vÃrtices. Cada uma dessas sub-estruturas define uma restriÃÃo que determina quantos conjuntos independentes sÃo necessarios para cobrir aquele subgrafo. Experimentos com um mÃtodo de geraÃÃo de cortes e colunas para o problema sÃo feitos para determinar um limite inferior para um conjunto de instÃncias classicas para esse problema a biblioteca DIMACS. / In this work the vertex coloring problem is approached via integer programming. A tighter version of the independent set formulation is used, where the vertex-related constraints are substituted by subgraph-related constraints. Each constraint establishes a lower bound on the number of independent sets intersecting a subgraph H. It is shown a sufficient condition for this inequality to define a facet of the associated polytope. Basically, H is required to be color critical, not included in another color critical subgraph, and to have a connected complement. Also, the column generation algorithm proposed by Mehotra and Trick (INFORMS Journal in Computing, 1996) is adapted to allow the addition of cutting planes and to provide lower bounds along the process, which may abbreviate its end. Some computational experiments are reported.

Page generated in 0.2944 seconds