Spelling suggestions: "subject:"processamento eletrônico dde dados."" "subject:"processamento eletrônico dde lados.""
51 |
Modelo híbrido de programação paralela para uma aplicação de elasticidade linear baseada no método dos elementos finitosSilva, Leonardo Nunes da 07 December 2006 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2006. / Submitted by Érika Rayanne Carvalho (carvalho.erika@ymail.com) on 2009-10-15T01:45:32Z
No. of bitstreams: 1
DissertacaoMestrado Leonardo Nunes da Silva.pdf: 1605735 bytes, checksum: cd1350cb41219363224dc8d8c3d3f2e5 (MD5) / Approved for entry into archive by Guimaraes Jacqueline(jacqueline.guimaraes@bce.unb.br) on 2009-11-24T14:20:22Z (GMT) No. of bitstreams: 1
DissertacaoMestrado Leonardo Nunes da Silva.pdf: 1605735 bytes, checksum: cd1350cb41219363224dc8d8c3d3f2e5 (MD5) / Made available in DSpace on 2009-11-24T14:20:22Z (GMT). No. of bitstreams: 1
DissertacaoMestrado Leonardo Nunes da Silva.pdf: 1605735 bytes, checksum: cd1350cb41219363224dc8d8c3d3f2e5 (MD5)
Previous issue date: 2006-12-07 / Na área de processamento paralelo existem dois paradigmas principais de programação: Memória Compartilhada e Troca de Mensagens. Cada um deles é adequado a uma arquitetra de hardware específica. No entanto, existem arquiteturas de multiprocessadores para as quais o mapeamento para um desses paradigmas não é tão simples. Clusters de SMP, por exemplo, são construídos com máquinas de memória compartilhada, conectadas através de uma rede de interconexão. Aplicações para clusters de SMP podem ser programadas para utilizar troca de mensagens entre todos os processadores. Mas existe a possibilidade de um melhor desempenho se utilizado um modelo híbrido de comunicação com troca de informações por memória compartilhada dentro do nó SMP e troca de informações por mensagens entre os nós. Nesse trabalho foi desenvolvido e avaliado um modelo híbrido de programação para uma aplicação na área de engenharia mecânica baseada no método dos elementos finitos. O objetivo desse trabalho é avaliar esse modelo e comparar seu desempenho com uma versão pura, por troca de mensagens, da aplicação. ___________________________________________________________________________________ ABSTRACT / In the area of parallel processing there are two major programming paradigms: Shared Memory and Message Passing. Each of them fits into a specific physical model, but there are multiprocessor architectures whose mapping to one of these paradigms is not so simple. SMP clusters, for example, are built by connecting some shared memory machines through an interconnection network. Applications on SMP clusters can be programmed to use message passing among all processors. However, it’s possible to achieve better performance using a hybrid model with shared memory communication inside SMP nodes and message passing communication between them. In this work, a hybrid model was used to develop an engineering application based on the Finite Element Method in order to evaluate this model and to compare its performance with a pure message passing version of the same application.
|
52 |
Modelagem de aprendizagem por reforço e controle em nível meta para melhorar a performance da comunicação em gerência de tráfego aéreoAlves, Daniela Pereira 09 November 2006 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2006. / Submitted by Natália Cristina Ramos dos Santos (nataliaguilera3@hotmail.com) on 2009-10-31T15:00:36Z
No. of bitstreams: 1
2006_Daniela Pereira Alves.pdf: 755800 bytes, checksum: 8757605da6ec5e32fe3a9bd198bc3076 (MD5) / Approved for entry into archive by Luanna Maia(luanna@bce.unb.br) on 2010-06-11T15:45:14Z (GMT) No. of bitstreams: 1
2006_Daniela Pereira Alves.pdf: 755800 bytes, checksum: 8757605da6ec5e32fe3a9bd198bc3076 (MD5) / Made available in DSpace on 2010-06-11T15:45:14Z (GMT). No. of bitstreams: 1
2006_Daniela Pereira Alves.pdf: 755800 bytes, checksum: 8757605da6ec5e32fe3a9bd198bc3076 (MD5)
Previous issue date: 2006-11-09 / Uma solução computacional que utiliza troca de mensagens lida com a dificuldade em decidir qual a melhor ação a ser executada à medida que uma nova mensagem chega. No caso específico da área de tráfego aéreo, o uso de troca de mensagens é empregado para manter consistentes as informações distribuídas entre os aeroportos, sujeitas ás características estocásticas deste contexto. O uso de gerência em nível meta e a aprendizagem por reforço foram empregados, neste trabalho, com intuito de apresentar uma estratégia para tratar o
problema de gerência da imensa quantidade de mensagens geradas no contexto de tráfego aéreo. A estratégia proposta fundamenta-se na busca pela adaptação por meio da aprendizagem durante o processo de tomada de decisão. A idéia é empregar uma camada adicional de controle em nível meta sobre a camada de controle já existente no sistema hospedeiro para auxiliar o processo de tomada de decisão. A decisão passa a ser tomada com uso da experiência adquirida pelo
agente com a aprendizagem por reforço melhorada por heurísticas propostas. O trabalho, então, propõe um modelo de computação inteligente para auxílio do processo de tomada de decisão de um sistema distribuído aplicado a Air Traffic Flow Management (ATFM). Ele é indicado para atuar na comunicação via troca de mensagens entre aeroportos, trabalhando como uma camada adicional em um aeroporto que usa os metadados das mensagens em suas decisões, com vistas à otimização na definição de uma hierarquia para atendimento às mensagens.
O modelo é considerado inovador porque usa aprendizagem por reforço adequada às características deste ambiente estocástico, preocupando-se com a velocidade e qualidade do processo de tomada de decisão. Na modelagem, três estratégias foram propostas para a aprendizagem: heurística inicial, epsilon adaptativo e heurística baseada em performance. Elas são combinadas aos algoritmos de aprendizado por reforço: Q-learning e SARSA. Os estudos de caso avaliam o desempenho, a qualidade do aprendizado quanto às três melhorias propostas e também o comportamento do Q-learning quando são alterados parâmetros do algoritmo. ___________________________________________________________________________________________ ABSTRACT / A computational solution which uses message exchange deals with difficulty to decide what is the best action to execute when a new message arrives. In the specific case of Air Traffic field, the use of message exchange is employed to keep consistency among distributed airport information which are subject to random characteristics of the context. In this work meta-level management and reinforcement learning is employed, with the intention to present one strategy to deal with the problem of managing huge quantity of messages that are created in the aero air traffic context. The
proposed strategy is based in the search for adapt action through the learning during the decision make process. The idea is to employ one additional meta-level control layer over the existing control layer in the host system to assist the
decision process. The decision is then made using the experience acquired by the
agent with the improved heuristical proposals. This work proposes one intelligent computational model to assist the decision make process in a distributed systems applied to the Air Traffic Flow Manage- ment - ATFM. It is indicated to deal with the communication through message
exchanges between airports, working like an additional layer in an airport that uses message’s metadata in its decision of pursuing the optimization in the hie-
rarchy to attendance messages. The model is considered innovative because it uses reinforcement learning adjusted to the characteristics of the random environment, concerned with the speed and quality in decision make process. In the modeling, three strategy was proposed for learning: initial heuristics, adaptative heuristics and performance heuristics. They are combined with algo- rithms: Q-learning and SARSA. The case studies evaluate by the three enhan- cements proposed - performance, learning quality and Q-learning behavior when parameters is modified.
|
53 |
Caracterização de desempenho de uma aplicação paralela do método dos elementos finitos em ambientes heterogêneos de pcsFerreira, Roberta Ribeiro 27 July 2006 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2006. / Submitted by Kathryn Cardim Araujo (kathryn.cardim@gmail.com) on 2009-11-13T12:07:06Z
No. of bitstreams: 1
2006_RobertaRibeiroFerreira.pdf: 1012527 bytes, checksum: 0f8b6c0ad04b7092c4a0d6a3c623f831 (MD5) / Approved for entry into archive by Tania Milca Carvalho Malheiros(tania@bce.unb.br) on 2009-11-13T13:42:12Z (GMT) No. of bitstreams: 1
2006_RobertaRibeiroFerreira.pdf: 1012527 bytes, checksum: 0f8b6c0ad04b7092c4a0d6a3c623f831 (MD5) / Made available in DSpace on 2009-11-13T13:42:12Z (GMT). No. of bitstreams: 1
2006_RobertaRibeiroFerreira.pdf: 1012527 bytes, checksum: 0f8b6c0ad04b7092c4a0d6a3c623f831 (MD5)
Previous issue date: 2006-07-27 / Na área das Engenharias muitos problemas complexos de soluções extremamente trabalhosas e normalmente impossíveis de serem resolvidos por métodos analíticos exigem soluções numéricas. O método dos elementos finitos (MEF) é uma abordagem para solução destes problemas encontrados em análise de estruturas, fluídos, eletromagnetismo, modelagem de circuitos integrados, biomédica e transferência de calor que necessitam processamento de alto desempenho e trabalham com grandes volumes de dados. A computação paralela aparece como uma alternativa viável para a obtenção do desempenho necessário para a solução de problemas através do MEF e a utilização de clusters, como alternativa para a obtenção deste desempenho a baixo custo, se comparados a outros sistemas de computação paralela. Contudo, em ambientes heterogêneos, para que o paralelismo seja explorado eficientemente é fundamental uma distribuição balanceada da carga de trabalho. Para isto, se faz necessário o conhecimento detalhado dos custos de execução e comunicação envolvidos no processamento da aplicação paralela, nas diferentes máquinas do ambiente. Este trabalho tem como objetivo caracterizar o desempenho, através de medições de tempo de execução detalhadas, de um código paralelo para um problema de análise estrutural modelado pelo método dos elementos finitos e resolvido pelo método dos gradientes conjugados (MGC), em um ambiente heterogêneo de PCs. Através dos resultados obtidos com as medições detalhadas, foi possível estabelecer um balanceamento de carga empírico para o ambiente heterogêneo, mostrando a viabilidade da utilização deste ambiente para a execução do código paralelo do método dos elementos finitos. _________________________________________________________________________________________ ABSTRACT / There are many complex problems of extremely difficult solutions in engineering area. These complex problems are usually impossible to be resolved for analytic methods and then they demand numeric solutions. The Finite Elements Method (FEM) is an approach for the solution of these problems found in analysis of structures, fluids, electromagnetism, assembling of integrated circuits, biomedical and transfer of heat, that need high performance processing and work with great volumes of data. The parallel computing appears as a viable alternative for obtaining the necessary performance for the solution of problems through the FEM and the use of cluster appears as an alternative for obtaining this performance processing at a low cost, if compared with the other systems of parallel computing. However, in heterogeneous environments, for an efficiently exploration of the parallelism, it is fundamental a balanced distribution of the work load. For this, it is necessary the knowledge of the execution costs and the communication involved in the processing of the parallel application, in the different machines of the environment. This work has as objective to characterize the performance of a parallel code for a problem of structural analysis modeled by the Finite Elements Method and solved by the Conjugated Gradients Method, in a heterogeneous environment. Through the results obtained with the detailed measurements, it was possible to establish an empiric load balancing for the heterogeneous environment, showing the viability of the use of this environment for the execution of the parallel code of the Finite Elements Method.
|
54 |
Arquitetura de coleta de dados para pesquisas de campo em ambientes computacionais heterogêneosFreitas Filho, Henrique Pereira de 30 January 2014 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, Mestrado em Informática, 2014. / Submitted by Albânia Cézar de Melo (albania@bce.unb.br) on 2014-05-19T13:56:52Z
No. of bitstreams: 1
2014_HenriquePereiraFreitasFilho.pdf: 2251898 bytes, checksum: 3bfb7502120c559331f932b9cbbc0677 (MD5) / Approved for entry into archive by Guimaraes Jacqueline(jacqueline.guimaraes@bce.unb.br) on 2014-06-06T13:42:11Z (GMT) No. of bitstreams: 1
2014_HenriquePereiraFreitasFilho.pdf: 2251898 bytes, checksum: 3bfb7502120c559331f932b9cbbc0677 (MD5) / Made available in DSpace on 2014-06-06T13:42:11Z (GMT). No. of bitstreams: 1
2014_HenriquePereiraFreitasFilho.pdf: 2251898 bytes, checksum: 3bfb7502120c559331f932b9cbbc0677 (MD5) / O ambiente computacional baseado na comunicação sem fio, tornou possível o acesso à informação em qualquer lugar e a qualquer momento, o que é favorável para a coleta de dados em pesquisas de campo. A maioria das arquiteturas de coleta de dados existentes atendem uma causa específica, utilizando tecnologias específicas que são limitadas no que se refere ao tipo de dados, tipo de redes, tipo de sincronização e tipo de dispositivo. Esta pesquisa apresenta uma arquitetura de coleta de dados para pesquisas de campo que funciona em ambientes computacionais heterogêneos e que suporta dados geográficos vetoriais. A arquitetura foi implementada e validada em um estudo de caso realizado no Instituto de Geociências (IG) da Universidade de Brasília (UnB). ______________________________________________________________________________ ABSTRACT / The computational environment based on wireless communication, made possible to
information access anywhere and any time, which is favourable for collecting data in
eld research. Most of collecting existing data architectures meet a specific cause, using specific technologies that are limited with regard to the type of data, type of network, type of synchronization and device type. This research presents an architecture of data collection for eld researches that works in heterogeneous computational environments and supports vector spatial data. The architecture was implemented and validated in a case study conducted at the Institute of Geosciences (IG) of the University of Brasilia (UnB).
|
55 |
Um ambiente para ensino de algoritmos de consensoSeabra, Isana Luzia 24 October 2004 (has links)
Orientador: Luiz Eduardo Buzato / Dissertação (mestrado profissional) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-06T02:03:04Z (GMT). No. of bitstreams: 1
Seabra_IsanaLuzia_M.pdf: 1123422 bytes, checksum: 35a2333550e0c4f62cff398bdfa965f2 (MD5)
Previous issue date: 2004 / Resumo: Sistemas distribuídos são aqueles em que vários processos autônomos são executados em máquinas distintas de uma rede de computadores para a realização de uma tarefa conjunta, sendo que a comunicação entre eles é através de troca de mensagens. Uma das principais características, cada vez mais presente nesses sistemas, é o compartilhamento de informação. Isso implica que eles devem garantir que o valor dessa informação é consistente para todos os processos - podemos citar, por exemplo, a manutenção de réplicas de base de dados. Para garantir uma informação consistente, todos os processos devem convergir para um mesmo valor, obtendo um valor de consenso para a informação. Na presença de falhas, sejam elas provenientes de processo ou de comunicação, a literatura nos mostra que obter consenso torna-se um problema de solução não trivial. Dada a importância desse assunto nas aplicações atuais e a vasta literatura que dificulta o início de seu estudo, este trabalho tem como objetivo oferecer um material sucinto e didático que venha facilitar o estudo inicial sobre algoritmos distribuídos para o problema de consenso, tendo como foco principal os alunos de graduação. Para tanto, contextualizamos o problema de consenso em sistemas distribuídos; descrevemos alguns algoritmos com características semelhantes; propomos um estudo detalhado do algoritmo definido por Pease, Shostak e Lamport [1], que chamamos de Algoritmo Fundamental; e apresentamos uma arquitetura em Java como subsídio para a implementação desses algoritmos, juntamente com uma implementação exemplo do Algoritmo Fundamental / Abstract: Distributed systems are those systems in which many autonomous processes are executed in different machines that belong to a computer network for the accomplishment of a cooperative task; the communication among them is carried out strictly through the exchange of messages. One of the main characteristics of these systems is replicated information sharing which means that they should guarantee that the value of this information is consistent for all the processes that have access to it. To guarantee consistency of information, all the processes should agree on the use of a same value for it. In the presence of partial failures, either caused by process or communication problems, the literature shows that reaching consensus becomes a problem of non-trivial solution. Due to its difficulty and practical importance consensus has gained momentus within the community of researchers and spawn a vast literature that makes it difficult for an undergraduate student to start its study. This research has the objective of offering some concise and didactic material to ease the initial studies of distributed consensus. In order to do that, we have contextualized the consensus problem in distributed systems; described some algorithms with similar characteristics; proposed a detailed study of the algorithm defined by Pease, Shostak e Lamport [1], which we call Fundamental Algorithm; and presented a Java based architecture as a subsidy for the implementation of these algorithms where the Fundamental Algorithm has been implemented. / Mestrado / Engenharia de Computação / Mestre Profissional em Computação
|
56 |
Arquitetura de software para recuperaçao de falhas utilizando checkpointing quase-sincrono / Software architecture for fault-recovery using quasi-synchronous checkpointingSilva, Ulisses Furquim Freire da 05 May 2005 (has links)
Orientadores: Islene Calciolari Garcia / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-06T15:21:09Z (GMT). No. of bitstreams: 1
Silva_UlissesFurquimFreireda_M.pdf: 705102 bytes, checksum: 5b4ebc6853f67fd40696b21c87297f43 (MD5)
Previous issue date: 2005 / Resumo: Um sistema distribuído tolerante a falhas que utilize recuperação por retrocesso de estado deve selecionar os checkpoints dos seus processos que serão gravados. Além dessa seleção, definida por um protocolo de checkpointing, o sistema precisa realizar uma coleta de lixo, para eliminar os checkpoints que se tornam obsoletos à medida que a aplicação executa. Assim, na ocorrência de uma falha, a computação pode ser retrocedida para um estado consistente salvo anteriormente. Esta dissertação discute os aspectos teóricos e práticos de um sistema distribuído tolerante a falhas que utiliza protocolos de checkpointing quase-síncronos e algoritmos para a coleta de lixo e recuperação por retrocesso. Existem vários protocolos de checkpointing na literatura, e nesta dissertação foram estudados os protocolos de checkpointing quase-síncronos. Esses protocols enviam informações de controle juntamente com as mensagens da aplicação, e podem exigir a gravação de checkpoints forçados, mas não necessitam de sincronização ou troca de mensagens de controle entre os processos. Com base nesse estudo, um framework para protocolos de checkpointing quase-sincronos foi implementado numa biblioteca de troca de mensagens chamada LAM/MPI. Além disso, uma arquitetura de software para recuperação de falhas por retrocesso de estado chamada Curupira também foi estudada e implementada naquela biblioteca. O Curupira_e a primeira arquitetura de software que n~ao precisa de troca de mensagens de controle ou qualquer sincronização entre os processos na execução dos protocolos de checkpointing e de coleta de lixo / Abstract: A fault-tolerant distributed system based on rollback-recovery has to checkpoints of its processes are stored. Besides this selection, that is controlled checkpointing protocol, the system has to do garbage collection, in order to eliminate that become obsolete while the application executes. The garbage collection because checkpoints require the use of storage resources and the storage has limited capacity. So, when some fault occurs, the whole distributed be restored to a consistent global state previously stored. This dissertation practical and theoretical aspects of a fault-tolerant distributed system quasisynchronous checkpointing protocols and also garbage collection and algorithms. There are several checkpointing protocols proposed in the literature, quasisynchronous ones were studied in this dissertation. These protocols information in the application's messages and can induce forced checkpoints, need any synchronization or exchanging of control messages among on that study, a framework for quasi-synchronous checkpointing implemented in a message passing library called LAM/MPI. Moreover, a based on rollback-recovery from faults named Curupira was also implemented in that library. Curupira is the _rst software architecture exchanging of control messages or any synchronization among the execution of the checkpointing and garbage collection protocols / Mestrado / Sistemas Distribuidos / Mestre em Ciência da Computação
|
57 |
Metodologia de caracterização e modelagem de tráfego para transmissão de imagens médicasSilva, Robert Paulo Barbosa e 28 May 2015 (has links)
Characterization and traffic modeling in medical image transmission is an important activity for corporate network management. With popularization of medical imaging a lot of
information about the patients became available. This new form of digital high-definition images has been integrated into computer networks over the years, using the DICOM protocol.
Recently, a large amount radiological equipament has been used for medical image generation transmission, thus causing new challenges for monitoring and management of network operations. This paper presents a methodology for modeling DICOM traffic. Traffic measurements were carried out on the network and direct collections in radiological equipment
of a small hospital for analysis. Measurements on the network traffic were performed to characterize the behavior of the traffic, thereby identifying the model and composition
of the network. The traffic source capture were executed over year to traffic from real medical diagnosis. The modeling of the traffic source was performed using curve fitting statistical
techniques, to model the distribution of image file sizes. Compliance tests analysis showed the Dagum distribution as the best approach in these results. Thus, the traffic source
model suggested by this work can be used in simulation experiments and network expansion projects. / Caracterização e modelagem de tráfego em transmissões de imagens médicas é uma atividade importante para a gestão de redes corporativas. Com a popularização do uso de equipamentos de diagnóstico radiológico, uma grande quantidade de informação sobre o paciente passou a estar disponível. Essa nova forma digital de imagens de alta definição vem sendo integrada às redes de computadores ao longo dos anos, com uso do protocolo DICOM. Recentemente, uma grande quantidade de equipamentos médicos radiológicos passou
a transmitir imagens médicas em redes de computadores, gerando assim, novos desafios para operações de monitoramento e gerenciamento das redes. Este trabalho apresenta uma metodologia para a modelagem de tráfego DICOM. Foram realizadas medições de tráfego na
rede e coletas diretas nos equipamentos radiológicos de um hospital de pequeno porte para análise. As medições sobre o tráfego da rede foram efetuadas para caracterizar o comportamento deste tráfego, identificando assim, a sua forma e composição na rede. As coletas nos equipamentos radiológicos foram executadas ao longo de um ano para modelagem da fonte
de tráfego. A modelagem da fonte de tráfego foi realizada com uso de técnicas estatísticas de ajuste de curvas, para modelar a distribuição de tamanho dos arquivos de imagens. Análises
de testes de aderência apontaram a distribuição de Dagum como a de melhor aproximação nestes resultados. Deste modo, o modelo de fonte de tráfego sugerido por esse trabalho pode
ser utilizado em experimentos de simulação e em projetos de expansão da rede.
|
58 |
Serviços de gerenciamento ODP utilizando a arquitetura CORBAAraujo, Douglas Evangelista de 11 September 1996 (has links)
Orientador: Eleri Cardozo / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-07-21T18:36:38Z (GMT). No. of bitstreams: 1
Araujo_DouglasEvangelistade_M.pdf: 3643567 bytes, checksum: 0b142cbf3dae3e4dce1aa8a8ebd26667 (MD5)
Previous issue date: 1996 / Resumo: O crescente desenvolvimento tecnológico e o aumento da demanda por sistemas e aplicações distribuídas levaram à definição de um padrão para processamento distribuído aberto, RM-ODP (Reference Model for Open Distributed Processing), e ao surgimento de plataformas comerciais capazes de integrar aplicações que estão espalhadas em um ambiente heterogêneo. O trabalho representa uma proposta para implementação de alguns dos serviços básicos do RM-ODP utilizando uma arquitetura de integração baseada na especificação CORBA (Common Object Request Broker Architecture). Entre os serviços oferecidos estão o suporte e o gerenciamento de objetos, cluster, cápsula e nó. A principal contribuição do trabalho está na identificação de alguns requisitos tecnológicos necessários à construção de sistemas distribuídos abertos e heterogêneos, e no mapeamento em termos de implementação dos conceitos propostos pelo modelo ODP do ponto de vista computacional para o de engenharia / Abstract: The increasing technological development and the demand for distributed systems and applications resulted in the definition of ODP (Open Distributed Processing) standard and and architectures able to integrate applications in a heterogeneous environment. This work aims to provide some basic services described in the ODP standard using a distributed computing plataform based on the CORBA specification. Management services of the leveI of objects, cluster, capsule and node are offered. The main contribution of this work is the identification of important technological requirements to construct open distributed systems, as well as mapping of some concepts from the ODP computational viewpoint to engineering viewpoint / Mestrado / Automação Industrial / Mestre em Engenharia Elétrica
|
59 |
Concorrencia em linguagens de comandoFernandez, Mauricio Alberto 30 September 1994 (has links)
Orientador: Rogerio Drummond Burnier Pessoa de Mello Filho / Dissertação (mestrado) - Universidade Estadual de campinas, Instituto de Matematica, Estatistica e Ciencia da Computação / Made available in DSpace on 2018-07-21T20:07:35Z (GMT). No. of bitstreams: 1
Fernandez_MauricioAlberto_M.pdf: 1638734 bytes, checksum: 602943caf6eed0fba74dfe34a3ed38eb (MD5)
Previous issue date: 1994 / Resumo: A execução de programas é uma das formas de reutilização de software mais bem sucedidas graças a um módulo que atua entre o usuário e o núcleo do sistema operacional. Estes módulos permitem que o usuário tenha acesso a uma máquina virtual de nível superior àquela fornecida pelos serviços do sistema. Originalmente estes módulos processavam ordens que chegavam ao computador pela leitora de cartões, na época do time sharing surgem as linguagens de comandos que definem a sintaxe que o usuário deve utilizar para executar programas a partir de seu terminal; hoje existem interfaces gráficas de usuário para desempenhar estas funções. Na arquitetura do Unix o interpretador da linguagem de comandos é um módulo separado do núcleo do sistema, o que permitiu a aparição de várias linguagens de comandos para esse sistema. Na prática as linguagens de comandos do Unix têm se desempenhado como ótimas linguagens de desenvolvimento rápido de programas; Arquivos contendo comandos podem ser executados da mesma forma como são executados outros programas. Recursos sintáticos para executar vários comandos concorrentemente, de forma que a saída de um alimente a entrada de outro, permitem a construção de programas mediante a utilização de peças de funcionalidade mais elementar. Além disto, a interatividade agiliza o ciclo codificação-teste. Este trabalho propõe uma extensão ao modelo de concorrência das linguagens de comandos do Unix que sirva de base para a definição de uma linguagem de comandos distribuída. As principais características do modelo proposto são: suporte a vários paradigmas de interação entre processos distribuídos, recursos definicionais, recursos funcionais, abstração procedural e suporte à concorrência interna. / Abstract: Every operating system architecture includes a module that simplifies program execution by users, converting program execution in one of the most succesful cases of software reusablity. This module have evolved from early job control languages to graphical interfaces. Command languages carne with time sharing systems and were the means used to type commands into the system. Unix command languages have proven to be excellent languages for rapid program development. Files containing shell commands may be executed like any other program Syntactic devices for concurrent program execution, with the output of one program feeding the input of another, allow program construction by reusing simpler pieces. Besides, the interactive nature speeds up the coding-testing cycle. An extension to the concurrency model of Unix command languages is herewith proposed. This extension should be the basis for a further specification of a distributed command language. The highlights of the proposed model are: support to various paradigms of distributed processes interaction, features for functional and definitional programming, procedural abstraction and support for internal concurrency. / Mestrado / Mestre em Ciência da Computação
|
60 |
OMNI sistemas de suporte e aplicações distribuidasCianni, Cassius Di 23 September 1994 (has links)
Orientador: Rogerio Drummond Burnier Pessoa de Mello Filho / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Ciencia da Computação / Made available in DSpace on 2018-07-21T19:44:27Z (GMT). No. of bitstreams: 1
Cianni_CassiusDi_M.pdf: 1867704 bytes, checksum: 3356ab8fd3bfcf8e14ec103f73c07357 (MD5)
Previous issue date: 1994 / Resumo: O Sistema OMNI oferece facilidades para a criação, comunicação e gerenciamento de processos numa rede heterogênea de computadores com o sistema operacional UNIX. Ele estende os conceitos presentes no UNIX oferecendo serviços similares para um sistema distribuído. Seus três principais módulos são descritos: Servidor de Nomes, Módulo de Portas e Gerenciador de Processos. Cada entidade do sistema, tais como portas, processos e grupos de portas, tem urna identificação única e homogênea, chamada de OMNIid, capaz de, identificá-lo no tempo e no espaço. O Servidor de Nomes é responsável por associar nomes definidos pelo usuário a essas identificações, de tal forma que elas possam ser mais tarde recuperadas por outros processos em qualquer ponto da rede, provendo transparência quanto à real localização das entidades. O Módulo de Portas de Comunicação provê o mecanismo usado por processos para se comunicarem através do envio de mensagens a portas. Portas podem ser com ou sem conexão. Urna mensagem só pode ser enviada a urna porta conectável pela porta a ela conectada, ao passo que qualquer processo pode enviar uma mensagem a uma porta sem conexão. O sistema também suporta conectores especiais e grupos de portas, que permitem que uma mensagem seja enviada simultaneamente a muitas portas ou seja entregue a apenas uma de um conjunto de portas. O Gerenciador de Processos é responsável por criar processos distribuídos, enviar sinais a eles, perceber e relatar seu término. A maioria dos serviços do UNIX são estendidos, permitindo que processos sejam interrompidos por um sinal quando um processo filho morre ou que bloqueiem até seu término. Grupos de processos e sessões do UNIX são também estendidos. / Abstract: The OMNI system provides facilities for the creation, communication and management of processes in an heterogeneous network of computers running UNIX. It extends UNIX concepts by providing similar services on a distributed system. The system's three main modules, called the Name Server, the Communication Ports Module and the Process Manager are briefty described. Every system entity, such as ports, processes or port groups, has a unique, homogeneous, system-wide identification called OMNIid, which identifies it in both time and space. The Name Server is responsible for associating user-defil1ed names with these identifications, so that they can be later retrieved by other processes anywhere on the network, thus providing transparency with regard to actual entity location. The Communication Ports Module provides a mechanism used by processes to communicate with one another by sending messages to ports. Ports can be connection or connectionless. A message can only be sent to a connection port by its connected peer, while any process can send a message to a connectionless port. The system also supports special connectors and port groups, which allow a message to be multicast to many ports or to be delivered to one of several possible ports only. The Process Manager is responsible for creating distributed processes, sending signals to them, detecting and reporting their termination. Most UNIX services are extended, allowing parent processes to be interrupted by a signal at child's death or block until child termination. UNIX process groups and sessions are also extended. / Mestrado / Mestre em Ciência da Computação
|
Page generated in 0.1201 seconds