• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1458
  • 2
  • Tagged with
  • 1460
  • 1460
  • 1445
  • 1397
  • 22
  • 8
  • 4
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
271

Sistema de Segurança Distribuído: Integração de Firewalls com Sistemas de Detecção de Intrusão / Not available

Bonifacio Junior, José Mauricio 29 December 1998 (has links)
Atualmente, segurança de redes é um assunto de vital importância nas mais diversas áreas. O crescimento e popularização da Internet fizeram com que diversos serviços essenciais fossem realizados através da rede e cada vez mais redes privadas se conectassem para desfrutar de todos os benefícios oferecidos. Por outro lado, atos de pirataria e ataques aos computadores tem causado enormes prejuízos e danos. Este cenário exige mecanismos altamente eficazes para se aumentar a segurança cias redes conectadas à Internet. Atualmente, a solução mais utilizada é o firewall, porém, sob diversas circunstâncias ele não é capaz de impedir um ataque. Sistemas de detecção de intrusão podem se tornar uma ferramenta altamente útil trabalhando em conjunto com firewalls. Este trabalho propõe que o uso conjunto de um firewall e um sistema de detecção de intrusão adaptativo baseado em redes neurais pode fornecer um alto grau de segurança à uma rede privada na medida em que une características complementares dos dois sistemas, além de permitir respostas rápidas e automáticas frente a uma invasão em andamento. Esta integração se dará com base em um sistema de segurança distribuído com as seguintes características: modularidade, escalabilidade, gerenciamento remoto, comunicação segura entre os diversos módulos e portabilidade. / Currently, security of networks is a subject of vital importance in diverse arcas. The growth of the Internet has allowed that essential jobs be carried out through the network, and more networks have been connected to enjoy ali the resulted benefits. On the other hand, acts of piracy and attacks to the computers have caused enormous clamages. This scene demands highly efficient mechanisms to increase the security of the networks connected to the Internet. Currently, the most used solution is firewall-based, however, under diverse circumstances it is not capable to hinder an attack. Intrusion detection systems might be a highly useful tool working with firewalls. This work considers that the joint use of a firewall and an adaptive neural network based intrusion detection system can supply a high degre-e of security to the private network. The integration matches features of the two systems, whereas allowing for fast and automatic front of counter measures to an in-progress invasion. This integration will be done over a distributed security system with the following features: modularity, scalability, remote management, safe communication between the diverse modules and portability
272

Uso do Amostrador de Gibbs e Metropolis-Hastings em Análise Bayesiana de Modelos AR(p) / Not available

Oliveira, José Roberto Temponi de 20 March 1998 (has links)
Neste trabalho comparamos modelos de séries temporais auto-regresivos de ordem p AR(p), ajustados pela abordagem clássica e Bayesiana. Na análise clássica a identificação do modelo é feita através da função de autocorrelação (FAC) e função de autocorrelação parcial (FACP), a escolha do melhor modelo para um conjunto de dados é feita usando-se o Critério de Informação de Alcaike (MC) e o Critério de Informação Bayesiano (MC). Na análise Bayesiana consideramos três alternativas de densidades a priori para os parâmetros, aqui a escolha do melhor modelo é feita pela densidade preditiva. Primeiramente consideramos a priori não informativa de Jeffireys, onde a densidade a posteriori marginal, para os parâmetros do modelo, pode ser calculada analiticamente e mostra-se que o valor esperado dessa posteriori coincide com o estimador de máxima verossimilhança. No segundo caso, adotamos uma função densidade a priori conjugada normal-gama. Aqui, a densidade a posteriori também pode ser calculada analiticameMe, resultando em uma densidade t-Student p-dimensional, no entanto em muitas situações reais adotar priori conjugada é pouco realista. Para contornar esse problema, no terceiro caso adotamos uma densidade a priori informativa t-Student, pdimensional, para os parâmetros e uma densidade a priori gama para o inverso da variância dos resíduos. Isto resulta em uma densidade a posteriori não padronizada. Neste caso a análise a posteriori só pode ser feita usando-se algoritmos de simulação em cadeia de Markov, MCMC. / In this work we compare time series models, AR(p), using the Bayesian and classical approach. The classical approach uses the Alcaike Information Criterion (AIC) and the Bayesian Information Criterion (BIC) to choose the best fitted models for a time series record data. The estimation of the model parameters are obtained by maximinn likelihood estimation. In the Bayesian approach to time series the likelihood function is combined with the prior density of the parameters, via Bayes theorem, to produce the posterior distribution of the parameters and the predictive distribution of future observation. In this paper we use three clifferent prior density functions. First, the likelihood function is approximated by a normalgamma density over the parameter space, them combined with either a Jeffreys\' vague prior or a normal-gamma prior. The result is that the analysis is similar to that obtained by a multiple linear regression analysis. Thus, the posterior analysis is done with norrnal-gamma distribution. Thirdly the likelihood function is combined with prior t-Student distribution them the posterior and predictive analysis is made via Markov Chain Monte Cano. The results are applied to two simulated series and two stream flow series of Furnas and Itumbiara reservoirs.
273

Integração sob demanda de esquemas de aplicações desenvolvidas utilizando bibliotecas de componentes genéricos / Not available

Santos, Júlio Cesar dos 29 July 1998 (has links)
Atualmente as organizações devem trocar dados entre si, e a tendência é que estas trocas sejam efetuadas cada vez mais através de meios digitais. Os dados são consultados (alimentados) livremente nas bases de dados de organizações independentes entre si, porém quando é necessária a troca de dados, como não existe uma previsão de integração, os dados somente podem ser trocados após uma preparação que impõe alguma forma de intervenção manual, construção de filtros especiais, etc., uma vez que a não existência de .um esquema comum impede que os dados de uma base possa ser intercambiados com os de outra base. No entanto, embora as bases de dados de diferentes organizações possam ser construídas de maneira totalmente independentes, a necessidade de uma troca significa que a semântica dos elementos manipulados, em particular daqueles que devem ser compartilhados é, no mínimo, semelhante. Por exemplo, se duas organizações devem trocar dados sobre pessoas, não importa se para as diferentes organizações as pessoas são clientes, empregados, alunos ou pacientes, o significado de \"pessoa\" é sempre entendido pelos membros das organizações. O mesmo ocorre com qualquer entidade que se deseje trocar informações. Este trabalho parte da suposição que possa existir alguma forma de definição primitiva para os diversos elementos de dados que devem ser compartilhados, a partir da qual sua instanciação em elementos de um esquema de dados em particular possa ser reconhecido. Assim, busca-se identificar estruturas primitivas, com a finalidade de integrar os sistemas. Contudo, para se chegar a tal estrutura, é preciso definir regras que garantam a preservação de propriedades da mesma com a finalidade de permitir que sempre que o esquema de uma organização A, construído a partir de uma mesma estrutura primitiva que foi utilizada por outro esquema de uma organização B, a integração entre ambas possa ser feita de forma automática, e que isso não provoque inconsistência nas bases de dados que estarão recebendo as informações. Para atingir esses objetivos, este trabalho propõe que tais estruturas de esquemas primitivos sejam parte das Bibliotecas de Templates de Objetos (BTO) que são distribuídas como parte das Ferramentas de Desenvolvimento Rápido de Aplicativos (RAD) comerciais. Como um exemplo de como isso poderia ser feito, apresenta-se um componente que define genericamente um objeto pessoa, desenvolvido a partir de como \"pessoas\" são tratadas em dois sistemas reais, centrando essa estrutura em uma única Abstração: a Abstração de Generalização. Apresenta também o conjunto de regras que deve ser utilizado para a integração de componentes centrados nessa abstração, que é a mais universalmente compatível entre os diversos modelos de dados orientados a objetos disponíveis atualmente. / Nowadays, the organizations need to deliver and receive data mutually, and the tendency is that the interchanges are made ever more through digital means. Although the databases of different organizations can (and must) be totally built in an independent way, when some elements must be interchanged, the semantic of these elements are at least similar. For example, if two organizations should interchange data on people, it does not care, for the different organizations, if the people are customers, employees, students or patient, the means of what are \"people\" is always understood by each organization. This work states that some fonn of primitive, common definition can exist for the data elements that must be shared, from which many elements of a database schema should be recognized. Thus, it searches for primitive structures that should be used by the several systems with the purpose of integrating them. Besides the definition of such structures, is necessary also to define mies that guarantee the preservation of the properties from the data that follow these structure in different organizations, when an interchange is pursued. To meet these objectives, this work suggests the development of common, generic Schema Components, that could be distributed as part of the Reusable Components Libraries of commercial Rapid Application Development (RAD) tools. As an example of this approach, it is presented one Primitive Component, which defines a generic \"people\" component. This component was extracted from the analysis of two existing systems, and it was structured using only one abstraction: the generalization one. It presents also the set of mies that must be followed to integrate data from two databases that have a subschema based on that abstraction. This sole abstraction was chosen due to be the most universally compatible concept among the present object-oriented data models.
274

Sobre um Método para Encontrar Soluções Periódicas de Equações Diferenciais Funcionais / Not available

Azevedo, Katia Andreia Gonçalves de 08 April 1998 (has links)
Estamos interessados em estudar um método para encontrar soluções periódicas de equações diferenciais funcionais com retardamento e de equaçõesdiferenças, apresentado por Carvalho. O método é analisado tanto para funções a valores reais como para funções a valores complexos. Aplicações são feitas em ambos os casos, sendo que através do caso complexo analisamos a existência de soluções periódicas de equações diferencias matriciais com retardamento. / We are concerned in studying a method introduced by Carvalho to find periodic solutions of retarded functional differential equations and difference equations. The method is analyzed both for real valued and complex valued functions. Applications are given in either cases; in the complex case we analyze the existence of periodic solutions of retarded matrix differential equations.
275

Apresentação e Sincronização Multimidia no Ambiente SMmD / Not available

Júnior, Laercio Augusto Baldochi 30 November 1998 (has links)
O projeto SMmD Sistemas Multimídia Distribuídos investiga a construção de uma estrutura de middleware para dar suporte à implementação de aplicações multimídia interativas em ambientes distribuídos e heterogêneos. Para tanto, devenvolveu-se o Ambiente SMmD, o qual inclui módulos para armazenamento e recuperação de objetos de mídia tais como áudio e vídeo, e também módulos para autoria e intercâmbio de objetos multimídia em conformidade com o padrão ISO MHEG-5. Esta dissertação descreve o trabalho de implementação de um dos módulos do Projeto SMmD, chamado Módulo de Apresentação e Sincronização (MAS). Este módulo foi implementado a partir de outro, chamado Java MBEG-5 Engine (JHEG), cuja função é interpretar e manipular objetos multimídia em conformidade com aquele padrão. Incialmente são apresentados o contexto, a motivação e os objetivos que levaram à execução deste trabalho. A seguir, é feita uma revisão dos conceitos relacionados à apresentação multimídia, enfatizando os aspectos relacionados à sincronização de seus componentes. Em seguida, apresenta-se o padrão MBEG-5 juntamente com outros padrões e recomendações relevantes no contexto deste trabalho. Com o objetivo de contextualizar o trabalho, é apresentada, então, uma visão geral dos módulos que compõem o Ambiente SMmD, seguida de uma descrição do trabalho de pesquisa que resultou na implementação do applet SyncEvent, embrião do Módulo de Apresentação e Sincronização. O Módulo de Apresentação e Sincronização, resultado principal deste trabalho, é então descrito, detalhando-se aspectos de sua arquitetura e de sua implementação. Finalmente, na conclusão, as contribuições deste trabalho são discutidas juntamente com suas limitações e possíveis trabalhos futuros, dentre os quais está a integração do MAS com os outros módulos do Projeto SMmD. / The SMmD Project Distributed Multimedia Systems is under investigation in order to provide midleware infrastructure for multimedia interactive applications in heterogeneous distributed environments. In this context, the SMmD Environment (ASMmD) has been developed, including modules for storage and retrieval of media objects such as audio and video, as well as modules for authoring, storing and delivering multimedia objects according to the MHEG-5 ISO standard. This dissertation describes the work relative to the implementation of the Presentation and Synchronization Module (MAS) of the SMmD Project. This module was built integrated to another module, the Java MHEG-5 Engine (JHEG), that provides the parsing and decoding of multimedia objects conforming to that ISO standard. Initially the context, motivation and objectives are presented, followed by a literature review of concepts relative to multimedia in general and synchronization in particular. Next, the MBEG-5 standard is presented along with other standards and recommendations relevant to the context of this work. In order to proper contextualize the work, an overview of the modules that build up the SMmD Environment is then presented, followed by a description of the investigation and implementation of the SyncEvent Applet, which was the embryo of the Presentation and Synchronization Module. The main result of this work, the Presentation and Synchronization Module (MAS), is introduced both from its architectural and implementation aspects. Finally, in the conclusion, the contributions of the work are discussed along with its limitations and related future work, which includes integrating the MAS with the remaining modules of the SMmD project.
276

Um Módulo de Análise de Saídas para o ASiA / Not available

Basílio, Laís Lemos de Oliveira 24 March 1998 (has links)
Este trabalho apresenta a definição de um módulo de análise de saídas para o ASiA (Ambiente de Simulação Automático desenvolvido pelo grupo de Sistemas Distribuídos e Programação Concorrente do ICMSC-USP). O objetivo deste módulo de análise de saídas é proporcionar ao usuário do ASIA uma ferramenta para validar os resultados de sua simulação, através do cálculo do intervalo de confiança para a média de uma dada medida de interesse. Os métodos estatísticos adotados são replicações e batch means para variáveis simples e múltiplas. Além destes métodos, considera-se ainda um método para comparação entre sistemas utilizando-se diferenças entre médias. Diversos métodos estatísticos são revisados nesta dissertação, sendo que a escolha dos que compõem o módulo de análise foi efetuada adotando-se diversos critérios. Os métodos escolhidos foram testados (os diversos programas que compõem o módulo são apresentados), exemplificados e discutida sua integração com o ASiA. / This work presents the definition of an output analisys module for ASIA (an Automatic Simulation Environment developed by the Distributed Systems and Concurrent Programming group at the ICMSC-USP). The aim of this output analisys module is to offer to the ASiA\'s user a tool to validate the simulation results, by means of confidence interval evaluation for the average value of a given measure of interest. The statistical methods adopted are the repplication and the batch means analisys for simple and multiple variables. Furthermore, another technique used deal with system comparison by means of the difference between mean values. Several statistical methods are revised in this dissertation and the choice of the ones used for the output analisys module was done by adopting many criteria. The methods chosen were tested (the several programs developed are presented), exemplified and their integration to ASiA is also discussed.
277

Solução Numérica Paralela de Equações Elípticas de Segunda Ordem / Not available

Galvão, Lauro Cesar 16 April 1998 (has links)
O objetivo deste trabalho é apresentar um algoritmo paralelo que implementa o método do gradiente conjugado com pré condicionamento para resolver equações elípticas de segunda ordem em um domínio retangular. A principal aproximação consiste em substituir as derivadas parciais por diferenças finitas para obter um sistema linear esparso. O domínio é então decomposto de acordo com o número de processadores, e cada um executa o trabalho em um subdomínio específico. A decomposição escolhida minimiza a comunicação entre os processadores, reduzindo substancialmente o tempo de solução. / The aim of this work is to present a parallel algorithm implementing the conjugate gradient method with factorization preconditioning for solving second order elliptic equations in a rectangular domain. The main approach consists of replacing the partia! derivatives with finite differences to obtain a sparse linear system. The domain is then decomposed according to the number of available processors, and each one carnes out its work on a specific subdomain. The chosen decomposition minimizes the communication traffic between the processors, substantially reducing the solution time.
278

Procura por Simetrias de Lie na Evolução do Código Genético / Not available

Lima, Lígia Braggion 13 April 1998 (has links)
Apresentamos nesta dissertação, uma análise do modelo algébrico para o código genético proposto por Homos e Homos, o qual procura explicar as degenerescências do código genético como o resultado de uma seqüência de quebras de simetrias que tenha ocorrido durante a evolução. Fizemos uma procura sistematizada por possíveis simetrias no código genético, através de uma análise minuciosa de todas as álgebras de Lie simples que possuem uma representação irredutível de dimensão 64 e de todas as suas cadeias de subálgebras maximais. Os resultados confirmam e sistematizam as conclusões de Homos e Homos e Forger et all. / We introduce in this dissertation an analysis of the algebraic approach to the genetic code proposed by Homos and Homos, which aims at explaining the degeneracies in the genetic code as the result of a sequence of symmetry breakings that have occurred during the evolution. We malcing a systematic search for symmetries possible in the genetic code, through a detailed analysis of the ali simple Lie algebras that possess an irreducible representation of 64 dimension and of every possible chains of maximal subalgebras. The results confirm and systematize the Homos and Homos and Forger et ali conclusion.
279

Data Mining no Processo de Extração de Conhecimento de Bases de Dados / Not available

Felix, Luis Carlos Molina 19 August 1998 (has links)
Nesta última década, houve um grande crescimento na capacidade de gerar e coletar dados, devido principalmente a três fatores: primeiro, ao constante aumento do poder de processamento dos computadores; segundo, ao armazenamento continuo de grande quantidade de dados a um baixo custo; e por último, à introdução de novas e melhores tecnologias relacionadas ao processamento e transmissão de dados. Embora os gerenciadores de bases de dados forneçam ferramentas básicas para otimizar o armazenamento e busca em grande quantidade de dados, o fato de como ajudar os humanos a entender e analisar estas grandes estruturas de dados é um problema de dificil solução. Nesse contexto, o Processo de Extração de Conhecimento de Bases de Dados (Knowledge Discovery in Databases KDD) emerge como uma nova tecnologia orientada à compreensão e busca de conhecimento embutido dentro destas grandes massas de dados, fazendo uso, principalmente, de várias técnicas apoiadas na estatística, bases de dados, ferramentas de visualização e Aprendizado de Máquina. De um modo geral, o processo KDD é composto de várias etapas, partindo da definição do domínio, um pré-processamento dos dados, uma etapa de Data Mining (Mineração de Dados) e, finalmente, uma análise e interpretação do conhecimento obtido. Este trabalho visa compreender e delimitar as diferentes etapas dentro do processo KDD, analisando o papel da etapa de Data Mining dentro deste processo. Dois estudos de casos (uma base de dados petroleira e uma base de dados do Programa de Melhoramento Genético da Raça Nelore) foram realizados para este fim. Este trabalho aborda importantes aspectos, principalmente quanto à relevância da discretizaç\'âo de dados contínuos na obtenção de melhores regras de classificação, além de mostrar o processo KDD em uma base de dados real, destacando a problemática encontrada e a importância da presença do especialista do domínio para o êxito deste processo. / In the last decade, there lias been a large growth in the capacity to generate and collect data, mainly due to three factors: first, the constant increase in the processing power of computers; second, the continuing storage of a large quantities of data at low costs; and last, the introduction of new and better technologies related to processing and transmitting data. Although database management systems offer basic tools for optimizing the storing and searching in large quantities of data, it is still difficult to help humans understand and analyze tese large data structures. In this context, the process of Knowledge Discovery in Databases KDD lias emerged as a new technology oriented towards comprehending and searching for lcnowledge intrinsic to these large masses of data, mostly by using various techniques based on statistics, databases, visualization tools and Machine Learning. Generally spealcing, the KDD process is composed of various phases, starting with the defmition of the domain, pre-processing the data, a phase of Data Miráng and, fmally, analyzing and interpreting the Imowledge that was obtained. This work tries to comprehend and separate the different phases in the KDD process, analyzing the role of the Data Mining phase in this process. Two case studies (one of a petroleuirt database and another of a database for the Program of Genetic Improving for the Nelore Breed) were made to emphasize this point. This work also loolcs at some important aspects, such as the relevance of discretizing continuous data so as to obtain better classification mies, as well as showing the KDD process applied to a real database, indicating the problems that were found and the importance of the presence of a domain expert for this process to be successful.
280

Mirador - Uma Ferramenta para Monitoramento e Gerenciamento do SPP2 / Not available

Araújo, Luís Augusto Cassimiro de 23 December 1998 (has links)
O desenvolvimento da tecnologia de computadores tem facilitado a construção de máquinas paralelas MIME) com memória distribuída e de alto desempenho, a exemplo do SPP2. Exceto pelo maior desempenho apresentado, essas máquinas têm operação similar a de uma rede local de computadores, permitindo a utilização direta de urna ampla gama de ferramentas para o desenvolvimento de aplicações paralelas disponíveis para essa classe de sistemas. Por outro lado, a disponibilidade de ferramentas para o monitoramento e gerenciamento da máquina paralela é muito escassa e as poucas ferramentas disponíveis não satisfazem as necessidades dos usuários. A ferramenta Mirador, apresentada neste trabalho, cobre essa lacuna. Essa ferramenta permite o monitoramento e o gerenciamento do SPP2 em particular e, com pequenas alterações, de uma rede de computadores que esteja sendo utilizada como uma máquina paralela. Para tomar seu uso mais flexível, a ferramenta Mirador usa como interface com o usuário um navegador (browser) Internet com suporte à linguagem Java, permitindo o monitoramento e o gerenciamento da arquitetura alvo independentemente da plataforma de hardware ou de sistema operacional que o usuário utilize. A funcionalidade da ferramenta Mirador foi testada e os primeiros resultados de utilização mostram que ela pode simplificar bastante as tarefas diárias de programadores e administradores de sistemas paralelos. / The technological evolution of computer components have made easier the development of MIMD parallel architectures based on a distributed memory model, such as the SPP2. This class of computers is very similar in operation to a conventional computer network although presenting a better performance. There are several tools for the development and monitoring of parallel programs and some can be found as a freeware. On the other hand, there are few freeware tools for the monitoring and management of parallel machines, ali of them without the necessary functionality. The Mirador tool, presente(\' in this work, overcomes this lack of functionality. This tool is intend for the monitoring and management of the SPP2 and, with minor changes, can be applied to a computer network used as a parallel machine. The Mirador was developed to operate remotely, allowing for the monitoring and management of the target architecture through a computer network. lis user interface is based on the Java and WWW technology, making its use possible in a wide range of platforms and operating systems. The Mirador was functionally tested and prelhninary user feedback shows that ft can make easier most of the daily tasks of programmers and administrators of parallel systems.

Page generated in 0.0657 seconds