• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 171
  • 6
  • 6
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 183
  • 88
  • 84
  • 69
  • 62
  • 55
  • 51
  • 42
  • 37
  • 35
  • 28
  • 28
  • 22
  • 21
  • 20
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Uma ponte entre as abordagens sincrona e quase-sincrona para checkpointing / Bridging the gap between synchronous and quase-synchronous

Sakata, Tiemi Christine 21 December 2006 (has links)
Orientador: Islene Calciolari Garcia / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-08T07:37:22Z (GMT). No. of bitstreams: 1 Sakata_TiemiChristine_D.pdf: 843635 bytes, checksum: 7f950e8bee6e5c7a1dfb19c6212897c2 (MD5) Previous issue date: 2007 / Resumo: Protocolos de checkpointing são responsáveis pelo armazenamento de estados dos processos de um sistema distribuído em memória estável para tolerar falhas. Os protocolos síncronos minimais induzem apenas um número minimal de processos a salvarem checkpoints durante uma execução do protocolo bloqueando os processos envolvidos. Uma versão não-bloqueante desta abordagem garante a minimalidade no número de checkpoints salvos em memória estável com o uso de checkpoints mutáveis, checkpoints que podem ser salvos em memória não-estável. Porém, a complexidade deste protocolo e o fato de ele tolerar apenas a presença de uma execução de checkpointing a cada instante nos motivou a procurar soluções para estes problemas na teoria desenvolvida para os protocolos quase-síncronos. A nova abordagem nos permitiu fazer uma revisão de alguns protocolos síncronos bloqueantes existentes na literatura que até então eram considerados minimais. Nesta mesma linha, obtivemos novos resultados na análise de minimalidade dos protocolos síncronos não-bloqueantes, ao considerarmos a aplicação como um todo e também a existência de execuções concorrentes de checkpointing. Ao estabelecermos esta ponte entre as abordagens para checkpointing, conseguimos desenvolver dois novos protocolos síncronos não-bloqueantes. Ambos fazem uso de checkpoints mutáveis, permitem execuções concorrentes de checkpointing e possuem um mecanismo simples de coleta de lixo. No entanto, o fato de cada um dos protocolos derivar de classes diferentes de protocolos quase-síncronos leva a comportamentos distintos, como evidenciado por resultados de simulação / Abstract: Checkpointing protocols are responsible for the selection of checkpoints in fault-tolerant distributed systems. Minimal checkpointing protocols minimize the number of checkpoints blocking processes during checkpointing. A non-blocking version of this approach assures a minimal number of checkpoints saved in stable memory using mutable checkpoints, those checkpoints can be saved in a non-stable storage. However, the complexity of this protocol and the absence of concurrent checkpointing executions have motivated us to find new solutions in the quasi-synchronous theory. The new approach has allowed us to review some blocking synchronous protocols existent in the literature which were, until now, considered as minimals. In the same way, we present new results analysing the minimality on the number of checkpoints in nonblocking synchronous protocols, considering the whole application and also the existence of concurrent checkpointing executions. On bridging the gap between the checkpointing approaches we could develop two new non-blocking synchronous protocols. Both use mutable checkpoints, allow concurrent checkpointing executions and have a simple mechanism of garbage collection. However, since each protocol derives from a diferent class of quasi-synchronous protocols, they present distinct behaviours, which are evident in the simulation results / Doutorado / Sistemas Distribuidos / Doutor em Ciência da Computação
92

Um escalonador para grades computacionais utilizando modelos economicos

Teixeira, Fabiano Costa 15 May 2007 (has links)
Orientador: Maria Beatriz Felgar de Toledo / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-08T13:58:13Z (GMT). No. of bitstreams: 1 Teixeira_FabianoCosta_M.pdf: 2209084 bytes, checksum: 57b8dcbf49ea5765258bd263373b2ebd (MD5) Previous issue date: 2007 / Resumo: A necessidade cada vez maior de um grande poder de processamento e o aumento da complexidade das aplicações motivaram o surgimento de um paradigma de computação distribuído chamado Grade Computacional. Esse paradigma possibilita o compartilhamento de recursos entre participantes heterogêneos, geograficamente separados e sob administrações independentes. No entanto, o comportamento egoísta dos participantes que procuram somente consumir recursos e não fornecer pode dificultar o crescimento e fortalecimento de uma grade computacional. Diante de tal contexto, essa dissertação propõe a utilização de modelos econômicos no escalonamento de recursos de uma grade computacional. Através da utilização de créditos, os participantes devem, de forma virtual, pagar pela utilização dos recursos remotos. De maneira a oferecer uma maior flexibilidade, a arquitetura proposta permite ainda a formação de grupos de trabalho em que diversos participantes podem trabalhar de forma conjunta para adquirirem um maior valor de créditos que um participante sozinho não poderia obter. A arquitetura se preocupa ainda em fornecer garantia de qualidade de serviço, de maneira que um prazo máximo de execução pré-estabelecido por um consumidor seja respeitado. Para essa arquitetura foram desenvolvidos componentes relacionados com a implementação de modelos econômicos e utilizados alguns componentes já existentes no Globus Toolkit / Abstract: The need for a greater processing power and the increased complexity of applications have caused the appearance of a distributed computing paradigm called Computational Grid. This paradigm allows resource sharing among heterogeneous, geographically distributed and autonomous participants. However, the selfish behavior of participants, that only want to consume resources and do not provide them, may hamper the grid growth. Thus this dissertation proposes the use of economic models for scheduling resources of the grid. Participants can pay for grid resources using credits. To offer a greater flexibility, the proposed architecture allows the organization of participants into groups that can work cooperatively to acquire more credits and, thus, to solve problems requiring more credits that a participant alone could not have. This architecture focuses on providing quality of service. Deadlines established by consumers are guaranteed. The architecture includes components related with the implementation of economic models and others from Globus Toolkit / Mestrado / Mestre em Ciência da Computação
93

Uma arquitetura para consultas a repositorios de biodiversidade na Web / An architecture to query biodiversity data on the Web

Gomes Junior, Luiz Celso, 1979- 18 May 2007 (has links)
Orientador: Claudia Maria Bauzer Medeiros / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-08T21:08:38Z (GMT). No. of bitstreams: 1 GomesJunior_LuizCelso_M.pdf: 2851826 bytes, checksum: 3831116628e7070356b5ae9e89047c6a (MD5) Previous issue date: 2007 / Resumo: A vida na Terra forma uma ampla e complexa rede de interações que alguns especialistas estimam conter até 80 milhões de espécies diferentes. Abordar o tema biodiversidade é essencialmente um esforço distribuído. Uma instituição de pesquisa, seja qual for seu tamanho, é capaz de lidar com apenas uma pequena fração desta variedade. Portanto, para conduzir pesquisas ecologicamente relevantes, é preciso coletar porções de informação sobre espécies e seus habitats em um grande número de instituições e correlacioná-las usando conhecimento geográfico, biológico e ecológico. A distribuição e a heterogeneidade inerentes aos dados de biodiversidade impõem diversos desafios, por exemplo, como encontrar informação relevante na Web, como resolver divergências sintáticas e semânticas e como processar vários predicados ecológicos e espaciais. Esta dissertação apresenta uma arquitetura que explora avanços em interoperabilidade de dados e tecnologias da Web semântica para tratar destes desafios. A solução se baseia em ontologias e anotação de repositórios para prover compartilhamento e descoberta de dados, estimulando a pesquisa colaborativa em biodiversidade. Um protótipo usando dados reais implementa parte da arquitetura / Abstract: Life on Earth forms a broad and complex network of interactions, which some experts estimate to be composed of up to 80 million different species. Tackling biodiversity is essentially a distributed effort. A research institution, no matter how big, can only deal with a small fraction of this variety. Therefore, to carry ecologically-relevant biodiversity research, one must collect chunks of information on species and their habitats from alarge number of institutions and correlate them using geographic, biologic and ecological knowledge. Distribution and heterogeneity inherent to biodiversity data pose several challenges, such as how to find relevant information on the Web, how to solve syntactic and semantic heterogeneity, and how to process a variety of ecological and spatial predicates. This dissertation presents an architecture that exploits advances in data interoperability andsemantic Web technologies to meet these challenges. The solution relies on ontologies and annotated repositories to support data sharing, discovery and collaborative biodiversity research. A prototype using real data has implemented part of the architecture / Mestrado / Banco de Dados / Mestre em Ciência da Computação
94

Sistema para sensoriamento e controle para aplicações em biomecatrônica. / Sensing and control system for applications in biomechatronics.

Luís Filipe Fragoso de Barros e Silva Rossi 26 January 2012 (has links)
Diversos trabalhos relacionados ao desenvolvimento de dispositivos robóticos biomecatrônicos estão sendo realizados em vários laboratórios no mundo. Apesar desta crescente tendência, devido a uma falta de padronização nas tecnologias utilizadas, em especial no sistema de sensoriamento e controle, há uma grande divergência nos sistemas resultantes. De forma a se conseguir atender os requisitos dos projetos, muito tempo é despendido no desenvolvimento de sistemas de sensoriamento e controle dedicados. Dentro deste cenário, neste trabalho foi projetado e implementado um sistema de sensoriamento e controle modular específico para sistemas robóticos. Este foi desenvolvido de forma a poder ser utilizado em diversos projetos reduzindo o esforço para a sua implementação. O referido sistema foi dividido em três módulos: Processador Central, Nós e Rede de Comunicação. Foi dada uma especial atenção no aspecto relacionado à comunicação por ser um fator-chave para se conseguir manter compatibilidade entre diferentes sistemas. Uma rede de comunicação denominada R-Bone foi desenvolvida pelo fato de que os sistemas existentes não atendem aos requisitos propostos. Uma descrição conceitual do sistema projetado é apresentada e a sua implementação detalhada. Todos os aspectos técnicos relevantes foram descritos de forma a facilitar a sua replicação por outros grupos. Um driver para sistema operacional Linux foi desenvolvido em conjunto com uma camada de abstração para simplificar o seu uso. Os testes realizados demonstraram que o sistema desenvolvido atende os requisitos propostos, mantendo uma condição de estabilidade adequada em seu tempo de resposta, baixa latência e pouca defasagem entre os sinais coletados pelos sensores. De forma a contribuir para uma possível padronização dos sistemas utilizados na área, todos os arquivos e informações relevantes para a replicação do sistema proposto foram disponibilizados sob a licença GNU LGPL em um servidor SVN. / Several works related to the development of biomechatronic robotic systems are being taken in several laboratories around the world. Despite this increasing trend, due to a lack of standardization in the used technologies, in special related to the control and sensing system, there is a wide divergence in the resulting system. In order to meet the project requirements, a lot of time is spent in the development of a custom control and sensing system. In this scenario, a modular sensing and control system specifically designed to be used in robotic systems, was designed and implemented. The last was developed in order to be used in several projects, thus reducing the effort spent on its implementation. This system was divided into three modules: Central Processor, Nodes and Communication Network. A special attention was given to the aspects related to the communication as it is the key-factor to keep compatibility among different systems. A communication network named R-Bone was developed, and its implementation was detailed. All the relevant technical aspects were described in order to facilitate its replication by other groups. A driver for the Linux operating system was developed in conjunction with an abstraction layer to simplify its use. The tests demonstrated that the system meets the proposed requirements, keeping a proper stability condition in the response time, low latency and little skew between the signals collected by the sensors. In order to contribute to a possible standardization of the systems used in the biomechatronics field, all the files with relevant information to make possible the replication of the proposed system were made available under the GNU LGPL license in a SVN server.
95

Avaliação de métodos de composição de campos de precipitação para uso em modelos hidrológicos distribuídos / Precipitation fields composing methods evaluation for distributed hydrological models use

Ilza Machado Kaiser 03 March 2006 (has links)
Este trabalho discute a composição de campos de precipitação a partir de duas fontes de dados: os pluviômetros e o radar meteorológico. Estudaram-se métodos baseados somente em dados de pluviômetros, somente em dados de radar, e técnicas que combinam as duas fontes de dados. O objeto de estudo é a bacia do rio Jacaré-Guaçu, que conta com 65 postos pluviométricos e um radar meteorológico, do IPMet-Bauru. Foi feita uma comparação direta entre os campos gerados pelas diversas técnicas, onde foi avaliado o comportamento do índice G (razão entre o registro pluviométrico e a média dos registros de radar dos 9 pixels que circundam o pluviômetro), a capacidade destas técnicas de fornecer a chuva pontual e a altura média diária e anual de chuva por área de integração. Os métodos compostos apresentaram valores pontuais de chuva muito elevados e foram introduzidos fatores limitantes para compensar estas super correções. Os resultados obtidos reproduziram qualitativamente os valores da literatura. Ao analisar a média das chuvas diárias para toda a bacia e para todo o período, utilizando como padrão de comparação o método do Inverso do Quadrado da Distância (IQD), constatou que o radar fornece valores 12% menores, e que os métodos mistos apresentam diferenças na faixa de -0,5 a +16%. Nesta forma de análise existe um ganho ao se utilizar as técnicas mistas, porém ao se trabalhar com valores diários, integrados em sub-bacias, as diferenças atingem valores de -45% até +70%. Estes campos de precipitação foram aplicados em um modelo hidrológico distribuído, de embasamento físico, com 19 parâmetros calibráveis. Trabalhou-se com 10 postos fluviométricos e com 6 anos de dados. A calibração foi feita com dois anos e o restante deles foi usado para validação. Para garantir a comparação entre os resultados usou-se rigorosamente a mesma metodologia de calibração, com apoio de algoritmo genético. Foram utilizadas três funções objetivo: uma para verificação dos picos, outra para recessão e a última para avaliar a diferença de volume. Verificou-se que os melhores resultados foram obtidos para os métodos IQD, Brandes com o maior limitador, Radar e Costa. Nestes métodos, o processo de calibração consegue compensar as diferenças dos campos de precipitação. As diferenças observadas nos campos de precipitação foram reproduzidas nos hidrogramas. Os hidrogramas resultantes da aplicação dos dados de radar não reproduziram bem a recessão e os hidrogramas resultantes dos campos gerados apenas por pluviômetros apresentam picos elevados. As técnicas mistas ora atenuam os picos ora intensificam-nos. Sugere-se mais pesquisa para o desenvolvimento de métodos mistos que explorem as vantagens dos dois equipamentos de medida de chuva / This work discusses the composition of precipitation fields using two data sources: rain gauges and weather radar. Methods based solely on rain gauges, on weather radar, and techniques that combine these two measurement instruments were studied. The study object is the Jacaré-Guaçu river basin, with 65 rain gauges and a meteorological radar (IPMet-Bauru). A direct comparison of these fields generated by diverse techniques was made to study the following subjects: G index (reason between the rain gauge register and the average of the 9 pixels radar registers that surround the rain gauge), the capacity of these techniques to supply the point rain and the daily and annual mean rain height over an integration area. The combined methods provides very high point values, therefore some limitations were introduced to compensate these super corrections. The literature results were qualitatively reproduced in this study. The daily mean rain height comparative analyses for all the basin, and for all the period, evidenced that the radar supplies to values 12% minors, and that the composed methods present differences from -0,5 up to +16%; the comparison pattern was the Inverse of Square Distance method (ISD). The study of mean rain height calculated over a great period and to the entire river basin shows a profit when using the combined techniques; however, when daily values integrated in sub-basins are used, the differences reach values from -45% until +70%. These precipitation fields had been applied in a distributed hydrologic model, physically based, with 19 calibrated parameters. There were 10 fluviometric stations and 6 years of data. The calibration was made with two years, and that remain data was used for validation. To guarantee the results comparison, the same calibration methodology was rigorously used, with support of genetic algorithm. Three objective functions were used: one for peaks verification, another for recession analyses and the last one for volume difference evaluation. The best results were achieved by the application of the precipitation fields gotten by ISD, Brandes with high limitation, Radar and Costa methods. For these methods, the calibration process compensated the differences on the precipitation fields. The differences observed in the precipitation fields had been reproduced in the hydrograms. The hydrograms of the radar data applications had not well reproduced the recession curve, and the hydrograms of the precipitation fields based only on rain gauges presented high peaks. Sometimes the composed techniques attenuate the peaks, however, sometimes they intensify them. More research is recommended to develop compoud methods that explore the advantages of the two equipments for rain measure
96

Caracterização de um serviço de Gerencia distribuido para objetos multimidia persistentes

Coelho, Andre Luis Vasconcelos 24 July 2018 (has links)
Orientador: Ivan Luiz Marques Ricarte / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-07-24T15:36:37Z (GMT). No. of bitstreams: 1 Coelho_AndreLuisVasconcelos_M.pdf: 995541 bytes, checksum: d6d3d88b1bd65a2037e51aa123e98130 (MD5) Previous issue date: 1998 / Mestrado
97

Sincronização de atividades em sistemas gerenciadores de workflow

Kasprzak, Gustavo 04 November 2003 (has links)
Orientador : Maria Beatriz Felgar de Toledo / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Computação Cientifica / Made available in DSpace on 2018-08-03T14:52:35Z (GMT). No. of bitstreams: 1 Kasprzak_Gustavo_M.pdf: 3857848 bytes, checksum: fd2d568076f405b873024e893780358a (MD5) Previous issue date: 2003 / Resumo: Sistemas Gerenciadores de Workflow (SGWFs) tradicionais gerenciam instâncias de workflow e suas respectivas atividades de forma independente. Atividades têm, usualmente, granularidade grossa, longa duração e são altamente dependentes dos processos aos quais elas pertencem. Além disso, utilizam em suas execuções aplicações e outros recursos compartilhados (ex., arquivos e bancos de dados). A semântica das atividades, incluindo suas respectivas aplicações e recursos compartilhados, não é conhecida pelo SGWF. Como resultado, é possível que a execução concorrente de atividades de workflow conflitantes gere inconsistências de dados, além de invocações e acessos indevidos a aplicações e recursos. Assim, utilizando o WorkToDo como SGWF de estudo, apresentamos neste trabalho dois mecanismos de sincronização de atividades que permitem a execução de atividades de forma mutuamente exclusiva e a manutenção de requisitos de ordenação entre essas atividades. Apresentamos, ainda, algumas extensões aos mecanismos de detecção e tratamento de falhas de atividades do WorkToDo, de forma a torná-los mais poderosos e robustos / Abstract: Traditional Workflow Management Systems (WfMSs) manage workflow instances and their respective activities in a independent formo Activities usually have coarse granularity, are long-lived and are highly process-dependent. Moreover, they use shared applications and other resources (ex., files and data bases). The semantics of the activities, including their respective applications and shared resources, is not known by the WfMS. As a result, it is possible that the concurrent execution of conflicting workflow activities generates data inconsistencies, in addition to improper invocation and access to applications and resources. Thus, using WorkToDo as the WfMS of study, we present in this work two activity synchronization mechanisms that allow the execution of activities in a mutually exclusive form and the maintenance of ordering requirements between these activities. We still present some extensions to activity failure detectionjhandling mechanisms oí the WorkToDo to make them more powerful and robusto / Mestrado / Ciência da Computação / Mestre em Ciência da Computação
98

Um mecanismo para distribuição de carga em ambientes virtuais de computação maciçamente paralela

Lucchese, Fabiano de Oliveira 03 August 2018 (has links)
Orientador: Marco Aurelio Amaral Henriques / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-03T15:57:16Z (GMT). No. of bitstreams: 1 Lucchese_FabianodeOliveira_M.pdf: 663870 bytes, checksum: d6b61bc66cae9f3f1ca14e89e2122a95 (MD5) Previous issue date: 2002 / Mestrado
99

Estados globais consistentes em sistemas distribuidos

Garcia, Islene Calciolari, 1971- 27 July 1998 (has links)
Dissertação: Luiz Eduardo Buzato / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-07-23T19:40:36Z (GMT). No. of bitstreams: 1 Garcia_IsleneCalciolari_M.pdf: 2272722 bytes, checksum: 40ccc8d3db214888d670f87260cf1134 (MD5) Previous issue date: 1998 / Resumo: Estados globais consistentes são fundamentais para a solução de uma série de problemas em sistemas distribuídos, em especial para a monitorização e reconfiguração de aplicações distribuídas. A construção assíncrona de estados globais consistentes permite maior eficiência e flexibilidade a sistemas de monitorização. Consideramos aplicações distribuídas construídas sobre o modelo de processos e mensa­gens (MPM) e sobre o modelo de objetos e ações atômicas (MOA). Enquanto para o primeiro modelo vários algoritmos foram desenvolvidos para a obtenção de estados globais consisten­tes, para o segundo a oferta é extremamente reduzida. Estabelecemos correlações entre esse dois modelos e conseguimos o mapeamento de algoritmos para a obtenção de estados globais consistentes do MPM para o MOA. Enquanto grande parte da literatura para a obtenção de estados globais consistentes está voltada para a recuperação de falhas com retrocesso de estado, temos como objetivo a construção de uma visão progressiva da aplicação (consideramos que o monitor deve analisar estados globais consistentes mais recentes que os anteriores). Esta abordagem propiciou a criação de algoritmos originais para a construção de estados globais consistentes a partir de estados de interesse (checkpoints) selecionados pelos componentes da aplicação. / Abstract: Consistent global states are fundamental to solve a large class of problems in distributed systems, especially for monitoring and reconfiguration of distributed applications. The asyn­chronous construction of consistent global states allows greater efficiency and flexibility to monitoring systems. We consider distributed applications built upon the processes and messages model (MPM) and upon the objects and atomic actions model (MOA). Many algorithms have been designed for the construction of consistent global states in the MPM, but for the MOA the number of algorithms is extremely reduced. We have established correlations between these two models and, using them, we have mapped algorithms to construct consistent global states from the MPM to the MOA. A great part of the literature for the construction of consistent global states is devoted to the backward recovery of failures. Our goal is the construction of a progressive view of the application (we consider that the monitor must analyze consistent global states that are as up-to-date as possible). This approach allowed the creation of new algorithms for the construction of consistent global states using checkpoints; states selected by the application components. / Mestrado / Mestre em Ciência da Computação
100

Plataforma multiware : interface de programação

Maezi, Marcio 30 August 1995 (has links)
Orientador: Eleri Cardoso / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica / Made available in DSpace on 2018-07-20T14:00:19Z (GMT). No. of bitstreams: 1 Maezi_Marcio_M.pdf: 5089620 bytes, checksum: 7b15c7ab0c1dfe97d386848923fd4b0f (MD5) Previous issue date: 1995 / Resumo: O rápido crescimento do processamento distribuído tem levado a necessidade de se estabelecer padrões para o processamento distribuído aberto (ODP: Open Distributed Processing). O modelo de referênciaODP propõe uma arquitetura baseada em objetos que dá suporte a distribuição, interconexão e portabilidade. A plataforma multiware é uma arquitetura para o suporte ao processamento distribuído aberto e presta-se a identificar os vários componentes e serviços de uma plataforma de suporte ao processamento distribuído aberto. A proposta deste trabalho é prover um dos serviços da plataforma multiware: a Interface de Programação (API: Application Programming Interface). A API tem por objetivo oferecer mecanismos de acesso para o processamento distribuído aberto, provendo serviços com as mesmas funcionalidades descritas pelo modelo de referência ODP. A principal contribuição deste trabalho foi traduzir os elementos do modelo ODP para uma estrutura computacional de acesso à estes elementos, enfocando-se nos elementos de gerenciamento e comunicação, sem dúvida os mais importantes do modelo ODP / Abstract: The rapid growth of distributed processing has led to a need for the standardization of Open Distributed Processing (ODP). The ODP reference model proposes an architecture based on objects that supports distribution, interworking and portability. The multiware plataform is an architecture for open distributed processing and gives a highlight of the many components and services that a plataform compliant to ODP must provide. The proposal of this work is to provide one of multiware plataform components: Application Programming Interface (API). The API has as a goal the offering of mechanisms for open distributed processing, providing services with the same funcionalities as described by the reference model ODP. The main contribution of this work was to translate the elements of ODP model into a computational structure that gives access to those elements, focusing on the management and communication elements, which are the most important of the ODP model / Mestrado / Mestre em Engenharia Elétrica

Page generated in 0.0476 seconds