Spelling suggestions: "subject:"aperating systems"" "subject:"boperating systems""
251 |
SW-V: modelo de streaming de software baseado em técnicas de virtualização e transporte peer-to-peerTeixeira, Rafael Augusto [UNESP] 26 March 2010 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:29:40Z (GMT). No. of bitstreams: 0
Previous issue date: 2010-03-26Bitstream added on 2014-06-13T18:59:20Z : No. of bitstreams: 1
teixeira_ra_me_sjrp.pdf: 1590877 bytes, checksum: b58ef56bb7fb5af67b8a42c521670356 (MD5) / Diante da constante evolução dos sistemas computacionais e seu potencial de processamento, a cada dia se torna necessário novas técnicas de aproveitamento destes recursos. Soluções que visam facilitar o gerenciamento da grande massa crescente de computadores e aplicações já se tornaram necessidades reais, não só soluções focadas nas grandes corporações, mas a cada dia, novas pequenas e médias empresas e outras organizações, como por exemplo escolas, fazem parte das estatísticas do uso de computadores e aplicações. Neste contexto, focando uma ferramenta compatível neste cenário de crescimento, este trabalho desenvolve um modelo de streaming de software chamado SW-V que é baseado no estudo de técnicas de virtualização e redes peer-to-peer que elimina a necessidade da instalação e configuração do software máquina-a-máquina para que ele seja utilizado. As características principais deste modelo que o destaca das soluções atuais são: um mecanismo de seqüenciamento dos recursos que são utilizados pelo software; um mecanismo de distribuição da imagem que utiliza a própria infra-estrutura de rede eliminando a necessidade de altos investimentos em servidores; um middleware de virtualização que não requer privilégios administrativos ou de sistema para ser executado; um mecanismo peer-to-peer assíncrono usado para aumentar a velocidade com que a distribuição da imagem do software ocorre para os clientes; e ainda possui suporte para que o usuário utilize as aplicações mesmo estando desconectado da rede. Durante o trabalho foram desenvolvidos pequenos módulos que vieram a comprovar que o modelo proposto pode ser adotado como base para a construção de uma solução robusta e escalável de virtualização de aplicação / In face of constant evolution of computing systems and the growing processing potential of computing, new techniques of use of these resources are necessary. Software solutions which intend make easy the management of this giant mass of computers and application are actually necessary, not only solution focused in big companies or large corporation, but each day, new small enterprises other segments like the educational organization became part of statistical of growing use of computer and software. In this scenario, this work formulate a model of software streaming based on study of virtualization techniques and peer-to-peer networks which eliminates the need of installation and configuration of determined software on each computer. The main characteristics of this model involve: a mechanism of sequencing of resources used by the software; a distribution mechanism of the software image using the available network infrastructure eliminating the need of high costs of investments and licensing; a peer-to-peer asynchronous distribution used to improve the sending of software image to the client computers; and still have off-line support where the user can execute de software even the computer is out of network and without server connection. Also some modules of mechanism proposed were developed to prove that all processes will works and all modules together can be used to build a robust and scalable framework of application virtualization
|
252 |
SW-V : modelo de streaming de software baseado em técnicas de virtualização e transporte peer-to-peer /Teixeira, Rafael Augusto. January 2010 (has links)
Orientador: Marcos Antônio Cavenaghi / Banca: Sarita Mazzini Bruschi / Banca: Roberta Spolon / Resumo: Diante da constante evolução dos sistemas computacionais e seu potencial de processamento, a cada dia se torna necessário novas técnicas de aproveitamento destes recursos. Soluções que visam facilitar o gerenciamento da grande massa crescente de computadores e aplicações já se tornaram necessidades reais, não só soluções focadas nas grandes corporações, mas a cada dia, novas pequenas e médias empresas e outras organizações, como por exemplo escolas, fazem parte das estatísticas do uso de computadores e aplicações. Neste contexto, focando uma ferramenta compatível neste cenário de crescimento, este trabalho desenvolve um modelo de streaming de software chamado SW-V que é baseado no estudo de técnicas de virtualização e redes peer-to-peer que elimina a necessidade da instalação e configuração do software máquina-a-máquina para que ele seja utilizado. As características principais deste modelo que o destaca das soluções atuais são: um mecanismo de seqüenciamento dos recursos que são utilizados pelo software; um mecanismo de distribuição da imagem que utiliza a própria infra-estrutura de rede eliminando a necessidade de altos investimentos em servidores; um middleware de virtualização que não requer privilégios administrativos ou de sistema para ser executado; um mecanismo peer-to-peer assíncrono usado para aumentar a velocidade com que a distribuição da imagem do software ocorre para os clientes; e ainda possui suporte para que o usuário utilize as aplicações mesmo estando desconectado da rede. Durante o trabalho foram desenvolvidos pequenos módulos que vieram a comprovar que o modelo proposto pode ser adotado como base para a construção de uma solução robusta e escalável de virtualização de aplicação / Abstract: In face of constant evolution of computing systems and the growing processing potential of computing, new techniques of use of these resources are necessary. Software solutions which intend make easy the management of this giant mass of computers and application are actually necessary, not only solution focused in big companies or large corporation, but each day, new small enterprises other segments like the educational organization became part of statistical of growing use of computer and software. In this scenario, this work formulate a model of software streaming based on study of virtualization techniques and peer-to-peer networks which eliminates the need of installation and configuration of determined software on each computer. The main characteristics of this model involve: a mechanism of sequencing of resources used by the software; a distribution mechanism of the software image using the available network infrastructure eliminating the need of high costs of investments and licensing; a peer-to-peer asynchronous distribution used to improve the sending of software image to the client computers; and still have off-line support where the user can execute de software even the computer is out of network and without server connection. Also some modules of mechanism proposed were developed to prove that all processes will works and all modules together can be used to build a robust and scalable framework of application virtualization / Mestre
|
253 |
Um algoritmo de diagnóstico distribuído para redes particionáveis de topologia arbitráriaWeber, Andrea 2010 October 1914 (has links)
Este trabalho apresenta um novo algoritmo de diagnóstico distribuído em nível de sistema, Distributed Network Reachability (DNR). O algoritmo permite que cada nodo de uma rede particionável de topologia arbitrária determine quais porções da rede estão alcançáveis e inalcançáveis. DNR é o primeiro algoritmo de diagnóstico distribuído que permite a ocorrência de eventos dinâmicos de falha e recuperação de nodos e enlaces, inclusive com partições e healings da rede. O estado diagnosticado de um nodo é ou sem-falha ou inatingível; o estado diagnosticado de um enlace é ou sem-falha ou não-respondendo ou inatingível. O algoritmo consiste de três fases: teste, disseminação e cálculo de alcançabilidade. Durante a fase de testes cada enlace é testado por um de seus nodos adjacentes em intervalos de teste alternados. Após a detecção de um novo evento, o testador inicia a fase de disseminação, na qual a nova informação de diagnóstico é transmitida para os nodos alcançáveis. A cada vez que um novo evento é detectado ou informado, a terceira fase é executada, na qual um algoritmo de conectividade em grafos é empregado para calcular a alcançabilidade da rede. O algoritmo DNR utiliza o número mínimo de testes por enlace por rodada de testes e tem a menor latência possível de diagnóstico, assegurada pela disseminação paralela de eventos. A correção do algoritmo é provada formalmente. Uma prova de correção no arcabouço bounded correctness também foi elaborada, incluindo latência delimitada de diagnóstico, latência delimitada de inicialização e acuidade. Um simulador do algoritmo foi implementado. Experimentos foram executados em diversas topologias incluindo grafos aleatórios (k-vertex connected e Power-Law) bem como grafos regulares (meshes e hipercubos). Extensivos resultados de simulação de eventos dinâmicos de falha e recuperação em nodos e enlaces são apresentados. / This thesis introduces the new Distributed Network Reachability (DNR) algorithm, a distributed system-level diagnosis algorithm that allows every node of a partitionable general topology network to determine which portions of the network are reachable and unreachable. DNR is the first distributed diagnosis algorithm that works in the presence of network partitions and healings caused by dynamic fault and repair events. A node is diagnosed as either working or unreachable and a link is diagnosed either as working or unresponsive or unreachable. The algorithm is formally specified and consists of three phases: test, dissemination, and reachability computation. During the testing phase each link is tested by one of the adjacent nodes at alternating testing intervals. Upon the detection of a new event, the tester starts the dissemination phase, in which the new diagnostic information is received by every reachable node in the network. New events can occur before the dissemination completes. After a new event is detected or informed, a working node runs the third phase, in which a graph connectivity algorithm is employed to compute the network reachability. The algorithm employs the optimal number of tests per link per testing interval and the best possible diagnosis latency, assured by the parallel dissemination of event information. The correctness of the algorithm is proved, including the bounded diagnostic latency, bounded start-up and accuracy. Experimental results obtained from simulation are presented. Simulated topologies include random graphs (k-vertex connected and Power-Law) as well as regular graphs (meshes and hypercubes). Extensive simulation results of dynamic fault and repair events on nodes and links are presented.
|
254 |
Um algoritmo de diagnóstico distribuído para redes particionáveis de topologia arbitráriaWeber, Andrea 2010 October 1914 (has links)
Este trabalho apresenta um novo algoritmo de diagnóstico distribuído em nível de sistema, Distributed Network Reachability (DNR). O algoritmo permite que cada nodo de uma rede particionável de topologia arbitrária determine quais porções da rede estão alcançáveis e inalcançáveis. DNR é o primeiro algoritmo de diagnóstico distribuído que permite a ocorrência de eventos dinâmicos de falha e recuperação de nodos e enlaces, inclusive com partições e healings da rede. O estado diagnosticado de um nodo é ou sem-falha ou inatingível; o estado diagnosticado de um enlace é ou sem-falha ou não-respondendo ou inatingível. O algoritmo consiste de três fases: teste, disseminação e cálculo de alcançabilidade. Durante a fase de testes cada enlace é testado por um de seus nodos adjacentes em intervalos de teste alternados. Após a detecção de um novo evento, o testador inicia a fase de disseminação, na qual a nova informação de diagnóstico é transmitida para os nodos alcançáveis. A cada vez que um novo evento é detectado ou informado, a terceira fase é executada, na qual um algoritmo de conectividade em grafos é empregado para calcular a alcançabilidade da rede. O algoritmo DNR utiliza o número mínimo de testes por enlace por rodada de testes e tem a menor latência possível de diagnóstico, assegurada pela disseminação paralela de eventos. A correção do algoritmo é provada formalmente. Uma prova de correção no arcabouço bounded correctness também foi elaborada, incluindo latência delimitada de diagnóstico, latência delimitada de inicialização e acuidade. Um simulador do algoritmo foi implementado. Experimentos foram executados em diversas topologias incluindo grafos aleatórios (k-vertex connected e Power-Law) bem como grafos regulares (meshes e hipercubos). Extensivos resultados de simulação de eventos dinâmicos de falha e recuperação em nodos e enlaces são apresentados. / This thesis introduces the new Distributed Network Reachability (DNR) algorithm, a distributed system-level diagnosis algorithm that allows every node of a partitionable general topology network to determine which portions of the network are reachable and unreachable. DNR is the first distributed diagnosis algorithm that works in the presence of network partitions and healings caused by dynamic fault and repair events. A node is diagnosed as either working or unreachable and a link is diagnosed either as working or unresponsive or unreachable. The algorithm is formally specified and consists of three phases: test, dissemination, and reachability computation. During the testing phase each link is tested by one of the adjacent nodes at alternating testing intervals. Upon the detection of a new event, the tester starts the dissemination phase, in which the new diagnostic information is received by every reachable node in the network. New events can occur before the dissemination completes. After a new event is detected or informed, a working node runs the third phase, in which a graph connectivity algorithm is employed to compute the network reachability. The algorithm employs the optimal number of tests per link per testing interval and the best possible diagnosis latency, assured by the parallel dissemination of event information. The correctness of the algorithm is proved, including the bounded diagnostic latency, bounded start-up and accuracy. Experimental results obtained from simulation are presented. Simulated topologies include random graphs (k-vertex connected and Power-Law) as well as regular graphs (meshes and hypercubes). Extensive simulation results of dynamic fault and repair events on nodes and links are presented.
|
255 |
Análise e implementação de suporte a SMP (multiprocessamento simétrico) para o sistema operacional eCos com aplicação em robótica móvel / Analysis and implementation of SMP support (symmetric multiprocessing) for eCos operating system with application in mobile roboticsMaikon Adiles Fernandez Bueno 26 April 2007 (has links)
Technological development has significantly reduced the distance between the performance of systems designed using reconfigurable computing and dedicated hardware. The main sources of performance are the high density level of the FPGAs and the resources? improvement offered by manufacturers, who make more its use more attractive in a variety of applications, emphatically in systems that demand a high degree of flexibility. In this context, the objective of this work consists on the exploration of the resources offered by FPGAs for the development of a multiprocessed platform with the purpose of parallel execution of tasks. In this way, the eCos operating system was modified, with the addition of new characteristics to support of the Symmetric Multiprocessing model, using three soft-Core Altera Nios II processors. On this operating system, all parallelism is directly related to execution of the threads. This platform was analyzed and validated through the execution of parallel algorithms, emphasizing aspects of performance and flexibility compared to other architectures. This work contributes for reaching better results in the execution of tasks in robotics area, which belongs to a domain that demand great competition of tasks, mainly in modules that involve interaction with the external environment / Technological development has significantly reduced the distance between the performance of systems designed using reconfigurable computing and dedicated hardware. The main sources of performance are the high density level of the FPGAs and the resources? improvement offered by manufacturers, who make more its use more attractive in a variety of applications, emphatically in systems that demand a high degree of flexibility. In this context, the objective of this work consists on the exploration of the resources offered by FPGAs for the development of a multiprocessed platform with the purpose of parallel execution of tasks. In this way, the eCos operating system was modified, with the addition of new characteristics to support of the Symmetric Multiprocessing model, using three soft-Core Altera Nios II processors. On this operating system, all parallelism is directly related to execution of the threads. This platform was analyzed and validated through the execution of parallel algorithms, emphasizing aspects of performance and flexibility compared to other architectures. This work contributes for reaching better results in the execution of tasks in robotics area, which belongs to a domain that demand great competition of tasks, mainly in modules that involve interaction with the external environment
|
256 |
Maquinas virtuais em ambientes seguros / Virtual machines in secure environmentsCastro, Arthur Bispo de 02 October 2006 (has links)
Orientador: Paulo Licio de Geus / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-10T18:08:43Z (GMT). No. of bitstreams: 1
Castro_ArthurBispode_M.pdf: 1955953 bytes, checksum: 46cf350cf44d894dc72583bf5206f94e (MD5)
Previous issue date: 2006 / Resumo: Desde o início da computação a idéia de máquinas virtuais vem sendo aplicada para estender o multiprocessamento, multi-programação e multi-acesso, tornando os sistemas multi-ambiente. O contínuo aumento no poder de processamento dos computadores fez com que máquinas muito rápidas estivessem ao alcance de qualquer usuário, surgindo PCs com processamento, espaço em disco e memória suficiente para comportar mais de um sistema compartilhando o mesmo hardware. Basicamente, o objetivo das máquinas virtuais é produzir um sistema mais simples, que permita que no mesmo hardware sejam executados vários sistemas operacionais. Sua implementação se resume a um programa gerenciador chamado VMM (Virtual Machine Monitor), que cria um ambiente que simula o acesso direto ao hardware. Este gerenciador é classificado em vários tipos, apresentados neste trabalho.
Graças às suas funcionalidades e variedades, o uso das máquinas virtuais pode ser estendido a fim de promover maior segurança e desempenho em redes, apresentando diversas vantagens e garantindo um ambiente mais confiável. São aplicáveis às estações de trabalho, à detecção e aprendizado de novos ataques a sistemas operacionais e aplicações, além de focar o aumento de segurança de servidores. Devido à disponibilidade de um laboratório de segurança de redes, pode-se colocar uma implementação de máquinas virtuais em sistemas reais de produção: servidor web, ftp, dns, e-mail, etc., e seus resultados confirmam o êxito desta utilização / Abstract: Since the beginning of computing, the concept of virtual machines has been associated with extending multi-processing, multi-programming and multi-access to create multienvironment systems. The continual increase in computer processing power has resulted in the common user having access to personal computers whose processing speed, disk space and memory are sufficient to support more than one operating system, whilst sharing, the same hardware. In simple terms, the goal of a virtual machine is to produce a simple system that permits that various operating systems can be executed on the same hardware. It is implemented via a managing program called VMM (Virtual Machine Monitor) that creates an environment that simulates direct access to the hardware. This managing program can be implemented in diverse ways, as will be discussed in this work. Due to its functionality and flexibility, virtual machines can be employed to provide greater security and performance in networked environments, offering various advantages and guaranteeing a trustworthy environment. In this work, virtual machines have been employed in workstations to detectand learn new attacks against operating systems and applications, as well as to increase .the security of the servers. Due to availability of a network security laboratory the ideas proposed have been implemented in real production systems: web server, ftp, dns, e-mail, etc., and the results confirm the effectiveness of the utilizations / Mestrado / Segurança de Redes / Mestre em Ciência da Computação
|
257 |
Framework de kernel para auto-proteção e administração em um sistema de segurança imunológico / A kernel framework for administration and selfprotection for a immunological security systemPereira, André Augusto da Silva, 1986- 23 August 2018 (has links)
Orientador: Paulo Lício de Geus / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-23T23:09:29Z (GMT). No. of bitstreams: 1
Pereira_AndreAugustodaSilva_M.pdf: 2078139 bytes, checksum: 3b321df6a81e4d3aaa8cf753b119f8a1 (MD5)
Previous issue date: 2013 / Resumo: O resumo poderá ser visualizado no texto completo da tese digital / Abstract: The complete abstract is available with the full electronic document / Mestrado / Ciência da Computação / Mestre em Ciência da Computação
|
258 |
Hur hanterar institutioner en miljö med blandade Operativsystem? / How does insititutions handle environments with multiple operatingsystems?Holm, Kristian, Hallgren, Morgan January 2007 (has links)
The purpose of this thesis is to investigate if there are environments that use some kind of central authentication system within institutions/schools. The hypothesis is that an institution not using a form of central authentication service has more need for maintenance and as such is considered a higher cost for the organization. The gathering of data has been done through interviews with technical personal at Blekinge Tekniska Högskola and Linköpings Universitet. Based on the technical background of the authors, and the system limited to discussing Windows and UNIX operating systems, a discussion and analysis of the systems working today has been done, with emphasize on the hypothesis.
|
259 |
Generationsskräpsamling med explicit kontroll av hårdvarucacheKarlsson, Karl-Johan January 2006 (has links)
This report evaluates whether an interpreted high-level garbage collected language has enough information about its memory behaviour to make better cache decisions than modern general CPU hardware. With a generational garbage collector, depending on promotion algorithm and generation size, around 90% of all objects never leave the first generation. This report is based on the hypothesis that, because of the low promotion rate, accesses to higher generations are sufficiently rare not to benefit from caching. To test this hypothesis, we built an operating system with a Scheme interpreter in kernel mode, where the interpreter controls the cache. Generic x86 PC hardware was used, since it allows fine-grained control of cache decisions. Measurements of execution time in this interpreter show that disabling the cache for generations higher than the first does not give any performance gain, but rather a performance loss of up to 50%. We conclude that this interpreter design is not an improvement, but cannot conclude that the hypothesis is false in general. We suggest building a better CPU simulator to gather more data from which to make better caching decisions, moving internal interpreter data structures into the garbage collected heap and modifying the hardware to allow control in the currently rigid dimension of where data is cached---for example separate control of instruction and data caches and separate data caches for different areas of memory.
|
260 |
Background Analysis and Design of ABOS, an Agent-Based Operating SystemSvahnberg, Mikael January 1998 (has links)
Modern operating systems should be extensible and flexible. This means that the operating system should be able to accept new behaviour and change existing behaviour without too much trouble and that it should ideally also be able to do this without any, or very little, downtime. Furthermore, during the past years the importance of the network has increased drastically, creating a demand for operating systems to function in a distributed environment. To achieve this flexibility and distribut-edness, I have designed and evaluated ABOS, an Agent-Based Operating System. ABOS uses agents to solve all the tasks of the operating system kernel, thus moving away from traditional monolithic kernel structures. Early results show that I have gained in flexibility and modularity, creating a fault-tolerant distributed operating system that can adapt and be adapted to almost any situa-tion with negligible decrease in performance. Within ABOS some tasks has been designed further, and there exists a demonstration of how the agent-based filesystem might work.
|
Page generated in 0.1202 seconds