Spelling suggestions: "subject:"escalonamento dde tarefa"" "subject:"escalonamento dee tarefa""
1 |
Desenvolvimento de mecanismo para especificação de políticas de escalonamento em projetos de sistemas embarcadosPatrícia Santos, Daniele 31 January 2011 (has links)
Made available in DSpace on 2014-06-12T16:00:51Z (GMT). No. of bitstreams: 2
arquivo7069_1.pdf: 2309680 bytes, checksum: 9f82816fc4ec4e7c3d5e9a9fec8419fe (MD5)
license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5)
Previous issue date: 2011 / Em sistemas embarcados, uma de suas partes críticas é o escalonador de tarefas. Este é responsável por determinar qual tarefa ocupará o processador em cada instante de tempo. Uma escolha de tarefa errada pode ter resultados que vão de uma diminuição de desempenho à perda de vidas humanas. Diante de sistemas cada vez mais complexos, surge a necessidade de criar escalonadores de tarefas especializados para aplicações específicas com o intuito de melhorar o desempenho desses sistemas. Sendo a implementação de escalonadores uma tarefa trabalhosa, que requer o uso de linguagens de baixo nível, esse trabalho de mestrado apresenta uma linguagem específica de domínio, a SchedLanguage, para facilitar a implementação de políticas de escalonamento dirigidas a prioridades. Com uma sintaxe simples, a SchedLanguage facilita a implementação de escalonadores, permitindo que estes sejam especificados em um nível de abstração maior. Além disso, também proporciona uma detecção precoce de erros relacionados ao entendimento e definição do sistema. Também é mostrado neste trabalho a ferramenta SchedTool, que gera um escalonador a partir de uma especificação em SchedLanguage. A utilização da linguagem proposta neste trabalho não é restrita a uma única plataforma. Por necessitar de algumas informações relacionadas à plataforma utilizada, uma mesma especificação nessa linguagem pode ser utilizada em diferentes plataformas. A linguagem e a ferramenta apresentadas neste trabalho foram validadas utilizando uma plataforma de referência ArchC, sendo utilizadas para escalonar diferentes tipos de tarefas
|
2 |
Escalonamento de tarefas em sistemas distribuídos baseado no conceito de propriedade distribuídaFalavinha Junior, José Nelson [UNESP] 25 May 2009 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:30:50Z (GMT). No. of bitstreams: 0
Previous issue date: 2009-05-25Bitstream added on 2014-06-13T21:01:23Z : No. of bitstreams: 1
falavinhajunior_jn_dr_ilha.pdf: 3487083 bytes, checksum: 5eeeb56b23091b46b46acaafba4babe4 (MD5) / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / Em sistemas distribuídos de larga escala; onde os recursos compartilhados são de propriedade de entidades distintas; existe a necessidade de refletir o fator propriedade dos recursos no processo de escalonamento de tarefas e alocação de recursos. Um sistema de gerenciamento de recursos apropriado deve garantir que os proprietários de recursos tenham acesso aos seus recursos ou ao menos a uma parcela de recursos que seja equivalente a eles. Diferentes políticas podem ser estabelecidas para que o sistema garanta esse direito aos proprietários de recursos; e nessa tese defende-se uma política de escalonamento e alocação de reucrsos chamada Owner-Share Enforcement Policy (OSEP) ou Política de Garantia da Porção do Proprietário; que tem por objetivo garantir o direito de acesso aos recursos através de um sistema de escalonamento baseado em preempção de tarefas e realocação de recursos. Avalia-se a política através da análise de testes e resultados envolvendo métricas de desempenho que descrevem fatores como violação da política; perdada capacidade de processamento; custo da política e satisfação do usuário. Os testes ainda envolveram a análise de desempenho da política em ambientes com a possibilidade de chekcpointing de tarefas; minimizando assim o desperdício de processamento. Fez-se ainda comparações com a política de compartilhamento justo Fair-Share; que permitiram estabelecer as vantagens e desvantagens de cada política e ainda identificar futuros problemas. Por fim; conclui-se a tese identificando as contribuições oferecidas por este trabalho e os trabalhos futuros que podem ser desenvolvidos. / In large distributed systems, where shared resources are owned by distinct entities, there is a need to reflect resource ownership in resource allocation. An appropriate resource management system should guarantee that owners of resources have access to their resources or at least to a share of resources proportional to the share of resources they provide. Different policies can be established for guaranteeing the access to resources, and in this thesis we introduce a policy for scheduling and resource allocation named Owner Share Enforcement Policy (OSEP). This policy is based on the concept of distributed ownership and itguarantees the owner's right of accessing their share of resources in a distributed system with a preemptive share space. We evaluate this policy through tests and results analysis involving performance metrics that describe policy violation, loss of capacity, policy cost and user satisfaction. The tests were also conducted in environments withand without job checkpointing, and comparisons with the Fair-Share scheduling policy were made in order to capture the trade-offs of each policy. Finally, we conclude the thesis describing the contributions achieved with this work and pointing directions for future work.
|
3 |
Uma metodologia para esclarecimento de tarefas de tempo real em arquiteturas dinamicamente reconfiguráveisEskinazi Sant'Anna, Remy January 2006 (has links)
Made available in DSpace on 2014-06-12T15:59:44Z (GMT). No. of bitstreams: 2
arquivo5532_1.pdf: 2107348 bytes, checksum: f54c0cde06194bb510ceea86f3c8cf6a (MD5)
license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5)
Previous issue date: 2006 / Atualmente, os dispositivos eletrônicos digitais programáveis vêm trazendo grandes avanços quando na
prototipação e na implementação de sistemas embarcados, especialmente aqueles que apresentam algum
tipo de computação embarcada. Estes dispositivos são largamente utilizados em áreas como
telecomunicações, redes de computadores, tratamento de sinais, controle, etc. Particularmente,
dispositivos lógicos programáveis como os FPGAs (Field Programmable Gate Arrays) têm apresentado
vantagens especiais por apresentarem características e recursos computacionais implementadas em
hardware, em sua reconfiguração. Esta característica permite que este tipo de dispositivo possa ser
reprogramado total ou parcialmente de acordo com a demanda do projeto, através de núcleos de
hardware previamente sintetizado e armazenado em bibliotecas de componentes.
O principal problema a ser abordado neste trabalho diz respeito à necessidade de ferramentas
adequadas para análise e síntese de aplicações com características de tempo real em hardware
reconfigurável. Estas aplicações, que no contexto deste trabalho, são implementadas em hardware,
necessitam ter suas tarefas adequadamente escalonadas ao longo do tempo, de acordo com os requisitos
temporais impostos pela aplicação. A forma como esta distribuição de tarefas é feita pode degradar o
desempenho do sistema ou fazer com que não seja possível garantir que todos os requisitos da aplicação
sejam atendidos.
O objetivo desta Tese é portanto, propor um novo método de escalonamento de tarefas para
aplicações em tempo real em arquiteturas parcial e dinamicamente reconfiguráveis baseadas em FPGAs.
A metodologia proposta, usa como linguagem interna para representação e modelagem de sistemas, redes
de Petri temporizadas. Para tal, considera-se inicialmente as especificações temporais da aplicação como
um todo e particularmente de cada tarefa que compõe a aplicação, a interdependência de dados entre estas
tarefas e a arquitetura onde será implementada a aplicação.
Nesta tese é apresentado o estado da arte em projetos com FPGAs, bem como uma revisão dos
métodos de escalonamento de tarefas que podem ser implementados em sistemas baseados nestes
dispositivos. As principais contribuições desta tese referem-se a geração de um conjunto de
escalonamentos que atendam as especificções de precedencia e de tempo da aplicação e a seleção de um
escalonamento em particular que apresente o melhor desempenho temporal do conjunto gerado para
implementação em FPGA. De acordo com estes levantamentos e juntamente com os resultados obtidos,
conclui-se que a metodologia desenvolvida representa uma efetiva contribuição ao projeto de sistemas
dinamicamente reconfiguráveis. Exemplos são discutidos como forma de demonstrar a metodologia
sugerida bem como, suas vantagens e limitações
|
4 |
Aquarius Uma plataforma para desenvolvimento de sistemas digitais dinamicamente reconfiguráveisLeandro Seixas, Jordana January 2007 (has links)
Made available in DSpace on 2014-06-12T15:59:50Z (GMT). No. of bitstreams: 2
arquivo5650_1.pdf: 2595763 bytes, checksum: 42fc72bb1ec45c1ac0cfbbcdfa706d6d (MD5)
license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5)
Previous issue date: 2007 / Conselho Nacional de Desenvolvimento Científico e Tecnológico / Há um grande interesse por parte dos pesquisadores em relação às características de autoreconfiguração
e auto-adaptação presentes em plataformas modernas de hardware baseadas em
dispositivos lógicos dinamicamente reconfiguráveis FPGAs (Field Programmable Gate Arrays).
Alguns destes dispositivos apresentam características ainda mais específicas, permitindo sua
reconfiguração parcial e dinâmica, o que permite que, parte da lógica, possa ser modificada
enquanto o restante do circuito permanece em operação.
O objetivo desta dissertação é desenvolver uma Plataforma de Reconfiguração Dinâmica
baseada em FPGAs, que permita a execução de aplicações utilizando os métodos de hardware
virtual, permitindo modificações nas configurações parciais em hardware, processamento massivo
de dados, etc. Esta plataforma é um estudo de caso em reconfiguração dinâmica para
implementação real dos trabalhos de pesquisa em Escalonamento de Tarefas e Particionamento
Temporal.
Esta plataforma híbrida, denominada Aquarius, é composta pelas plataformas Altera e
Xilinx, baseadas nos dispositivos FPGAs Stratix-II e Virtex-II, respectivamente. A plataforma
Altera oferece todo o suporte para reconfiguração do dispositivo da Xilinx. Esta plataforma é
controlada por um processador soft-core Nios da Altera, o qual possui o suporte de um SO
uCLinux, além de device drivers especialmente desenvolvidos para reconfiguração do dispositivo
da Xilinx. Um módulo de reconfiguração especial, o IP-SelectMAP, foi desenvolvido para
programação do hardware dinâmica e parcialmente reconfigurável. Este módulo recebe informações
da plataforma da Altera, através dos device drivers, os bitstreams, arquivos responsáveis pela
programação do dispositivo da Xilinx. Todos os bitstreams de configuração são previamente
escalonados de acordo com a aplicação do usuário.
Desenvolver sistemas de reconfiguração dinâmica ainda é um desafio, porque sua
implementação é complexa e por haver poucas plataformas de hardware e software para projetá-los.
No entanto, metodologias de projeto como as aqui propostas, permitem que novas classes de
hardware virtual possam ser, no futuro, mais facilmente utilizados, assim como, soluções reais, em
processamento massivo de dados em plataforma Multi-FPGAs
|
5 |
Metodologia para execução de aplicações paralelas baseadas no modelo BSP com tarefas heterogêneas. / Methodology for parallel application execution based on BSP model with heterogeneous tasks.Luz, Fernando Henrique e Paula da 21 September 2015 (has links)
A computação paralela permite uma série de vantagens para a execução de aplicações de grande porte, sendo que o uso efetivo dos recursos computacionais paralelos é um aspecto relevante da computação de alto desempenho. Este trabalho apresenta uma metodologia que provê a execução, de forma automatizada, de aplicações paralelas baseadas no modelo BSP com tarefas heterogêneas. É considerado no modelo adotado, que o tempo de computação de cada tarefa secundária não possui uma alta variância entre uma iteração e outra. A metodologia é denominada de ASE e é composta por três etapas: Aquisição (Acquisition), Escalonamento (Scheduling) e Execução (Execution). Na etapa de Aquisição, os tempos de processamento das tarefas são obtidos; na etapa de Escalonamento a metodologia busca encontrar a distribuição de tarefas que maximize a velocidade de execução da aplicação paralela, mas minimizando o uso de recursos, por meio de um algoritmo desenvolvido neste trabalho; e por fim a etapa de Execução executa a aplicação paralela com a distribuição definida na etapa anterior. Ferramentas que são aplicadas na metodologia foram implementadas. Um conjunto de testes aplicando a metodologia foi realizado e os resultados apresentados mostram que os objetivos da proposta foram alcançados. / Parallel computing allows for a series of advantages on the execution of large applications and the effective use of parallel resources is an important aspect in the High Performance Computing. This work presents a methodology to provide the execution, in an automated way, of parallel applications based on BSP model with heterogeneous tasks. In this model it is assumed that the computation time between iterations does not have a high variance. The methodology is entitled ASE and it is composed by three stages: Acquisition, Scheduling and Execution. In the Acquisition step, the tasks\' processing time are obtained; In the Scheduling step, the methodology finds the ideal arrangement to distribute the tasks to maximize the execution speed and, simultaneously, minimize the use of resources. This is made using an algorithm developed in this work; and lastly the Execution step, where the parallel application is executed in the distribution defined in the previous step. The tools used in the methodology were implemented. A set of tests to apply the methodology were made and the results shown that the objectives were reached.
|
6 |
Metodologia para execução de aplicações paralelas baseadas no modelo BSP com tarefas heterogêneas. / Methodology for parallel application execution based on BSP model with heterogeneous tasks.Fernando Henrique e Paula da Luz 21 September 2015 (has links)
A computação paralela permite uma série de vantagens para a execução de aplicações de grande porte, sendo que o uso efetivo dos recursos computacionais paralelos é um aspecto relevante da computação de alto desempenho. Este trabalho apresenta uma metodologia que provê a execução, de forma automatizada, de aplicações paralelas baseadas no modelo BSP com tarefas heterogêneas. É considerado no modelo adotado, que o tempo de computação de cada tarefa secundária não possui uma alta variância entre uma iteração e outra. A metodologia é denominada de ASE e é composta por três etapas: Aquisição (Acquisition), Escalonamento (Scheduling) e Execução (Execution). Na etapa de Aquisição, os tempos de processamento das tarefas são obtidos; na etapa de Escalonamento a metodologia busca encontrar a distribuição de tarefas que maximize a velocidade de execução da aplicação paralela, mas minimizando o uso de recursos, por meio de um algoritmo desenvolvido neste trabalho; e por fim a etapa de Execução executa a aplicação paralela com a distribuição definida na etapa anterior. Ferramentas que são aplicadas na metodologia foram implementadas. Um conjunto de testes aplicando a metodologia foi realizado e os resultados apresentados mostram que os objetivos da proposta foram alcançados. / Parallel computing allows for a series of advantages on the execution of large applications and the effective use of parallel resources is an important aspect in the High Performance Computing. This work presents a methodology to provide the execution, in an automated way, of parallel applications based on BSP model with heterogeneous tasks. In this model it is assumed that the computation time between iterations does not have a high variance. The methodology is entitled ASE and it is composed by three stages: Acquisition, Scheduling and Execution. In the Acquisition step, the tasks\' processing time are obtained; In the Scheduling step, the methodology finds the ideal arrangement to distribute the tasks to maximize the execution speed and, simultaneously, minimize the use of resources. This is made using an algorithm developed in this work; and lastly the Execution step, where the parallel application is executed in the distribution defined in the previous step. The tools used in the methodology were implemented. A set of tests to apply the methodology were made and the results shown that the objectives were reached.
|
7 |
Distribuição de tarefas em sistemas de workflow por meio da seleção induzida de recursos / Tasks Distribution in Work ow Systems Based on Resources Induced SelectionSilva, Rogério Sousa e 12 September 2007 (has links)
The assingment of tasks to resources of a workflow system is called task distribution.
The task distribution is an important activity for workflow systems, because
it is necessary to ensure that a task is performed by the appropriate resource in due
time. There are several approaches to task distribution in workflow systems. This
work innovates by using a Link Analysis technique applied to the task distribution.
The Link Analysis is used to rank the result of a web query. The rank is performed
by considering the relevance of the pages.
This work presents the application of Link Analysis in the context of workflow
task distribution. We have proposed a new task distribution algorithm (wf-hits)
based on Link Analysis algorithm. We have compared wf-hits against other related
ones. This comparison have considered quantitative and qualitative aspects. The
experiments have shown that the use of wf-hits has improved workflow systems 25%
in quantitative terms meanwhile the qualitative terms has maintained the same level
of similar related works. / A entrega de tarefas para que sejam executadas pelos recursos de um sistema
de work
ow é chamada de distribuição de tarefas. A distribuição de tarefas é uma
atividade importante para os sistemas de work
ow, pois ´e necessário assegurar que
uma determinada tarefa seja executada pelo recurso apropriado no tempo devido.
Há várias abordagens para a distribuição de tarefas em sistemas de workflow. Este
trabalho inova ao utilizar uma técnica oriunda da Análise de Ligações (Link Analysis)
aplicada à distribuição de tarefas. A Link Analysis é utilizada para classificar
o resultado de uma consulta na internet. A classificação é realizada considerando a
relevância das páginas.
O presente trabalho propõe a aplicação da Link Analysis no contexto da distribuição de tarefas em sistemas de work
ow. É proposto um novo algoritmo para a
distribuição de tarefas (wf-hits) que é baseado no algoritmo de Link Analysis. O
algoritmo wf-hits é comparado com trabalhos correlatos em termos quantitativos e
qualitativos. Os experimentos realizados mostraram que a utilização do wf-hits na
distribuição de tarefas aos recursos em sistemas de workflow representa ganhos na
ordem de 25% em termos quantitativos mantendo os mesmos patamares de qualidade
dos trabalhos relacionados. / Mestre em Ciência da Computação
|
8 |
Efficient processing of multiway spatial join queries in distributed systems / Processamento eficiente de consultas de multi-junção espacial em sistemas distribuídosOliveira, Thiago Borges de 29 November 2017 (has links)
Submitted by Franciele Moreira (francielemoreyra@gmail.com) on 2017-12-12T16:13:05Z
No. of bitstreams: 2
Tese - Thiago Borges de Oliveira - 2017.pdf: 1684209 bytes, checksum: f64b32084ca6b13a58109e4d2cffe541 (MD5)
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Approved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2017-12-13T09:33:57Z (GMT) No. of bitstreams: 2
Tese - Thiago Borges de Oliveira - 2017.pdf: 1684209 bytes, checksum: f64b32084ca6b13a58109e4d2cffe541 (MD5)
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Made available in DSpace on 2017-12-13T09:33:57Z (GMT). No. of bitstreams: 2
Tese - Thiago Borges de Oliveira - 2017.pdf: 1684209 bytes, checksum: f64b32084ca6b13a58109e4d2cffe541 (MD5)
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5)
Previous issue date: 2017-11-29 / Multiway spatial join is an important type of query in spatial data processing, and its
efficient execution is a requirement to move spatial data analysis to scalable platforms
as has already happened with relational and unstructured data. In this thesis, we provide
a set of comprehensive models and methods to efficiently execute multiway spatial join
queries in distributed systems. We introduce a cost-based optimizer that is able to select a
good execution plan for processing such queries in distributed systems taking into account:
the partitioning of data based on the spatial attributes of datasets; the intra-operator level
of parallelism, which enables high scalability; and the economy of cluster resources by
appropriately scheduling the queries before execution. We propose a cost model based on
relevant metadata about the spatial datasets and the data distribution, which identifies the
pattern of costs incurred when processing a query in this environment. We formalized the
distributed multiway spatial join plan scheduling problem as a bi-objective linear integer
model, considering the minimization of both the makespan and the communication cost
as objectives. Three methods are proposed to compute schedules based on this model
that significantly reduce the resource consumption required to process a query. Although
targeting multiway spatial join query scheduling, these methods can be applied to other
kinds of problems in distributed systems, notably problems that require both the alignment
of data partitions and the assignment of jobs to machines. Additionally, we propose a
method to control the usage of resources and increase system throughput in the presence
of constraints on the network or processing capacity. The proposed cost-based optimizer
was able to select good execution plans for all queries in our experiments, using public
datasets with a significant range of sizes and complex spatial objects. We also present an
execution engine that is capable of performing the queries with near-linear scalability with
respect to execution time. / A multi-junção espacial é um tipo importante de consulta usada no processamento de
dados espaciais e sua execução eficiente é um requisito para mover a análise de dados
espaciais para plataformas escaláveis, assim como aconteceu com dados relacionais e não
estruturados. Nesta tese, propomos um conjunto de modelos e métodos para executar eficientemente
consultas de multi-junção espacial em sistemas distribuídos. Apresentamos um
otimizador baseado em custos que seleciona um bom plano de execução levando em consideração:
o particionamento de dados com base nos atributos espaciais dos datasets; o nível
de paralelismo intra-operador que proporciona alta escalabilidade; e o escalonamento das
consultas antes da execução que resulta em economia de recursos computacionais. Propomos
um modelo de custo baseado em metadados dos datasets e da distribuição de dados,
que identifica o padrão de custos incorridos no processamento de uma consulta neste ambiente.
Formalizamos o problema de escalonamento de planos de execução da multi-junção
espacial distribuída como um modelo linear inteiro bi-objetivo, que minimiza tanto o custo
de processamento quanto o custo de comunicação. Propomos três métodos para gerar escalonamentos
a partir deste modelo, os quais reduzem significativamente o consumo de
recursos no processamento das consultas. Embora projetados para o escalonamento da
multi-junção espacial, esses métodos podem também ser aplicados a outros tipos de problemas
em sistemas distribuídos, que necessitam do alinhamento de partições de dados
e da distribuição de tarefas a máquinas de forma balanceada. Além disso, propomos um
método para controlar o uso de recursos e aumentar a vazão do sistema na presença de
restrições nas capacidades da rede ou de processamento. O otimizador proposto foi capaz
de selecionar bons planos de execução para todas as consultas em nossos experimentos, as
quais usaram datasets públicos com uma variedade significativa de tamanhos e de objetos
espaciais complexos. Apresentamos também uma máquina de execução, capaz de executar
as consultas com escalabilidade próxima de linear em relação ao tempo de execução.
|
9 |
Projeto e avaliação de um broker como agente de intermediação e QoS em uma nuvem computacional híbrida / Design and evaluation of a broker as QoS and intermediation agent in hybrid cloud computingPardo, Mario Henrique de Souza 16 June 2016 (has links)
A presente tese de doutorado propõe uma arquitetura de cloud broker para ambientes de computação em nuvem híbrida. Um cloud broker tem o objetivo de executar a mediação entre clientes e provedores, recebendo requisições dos clientes e encaminhando-as ao serviço do provedor que melhor se adaptar aos requisitos de qualidade de serviço (QoS) solicitados. A arquitetura de broker de serviços com QoS proposta denomina-se QBroker, características de implementação de seu modo de operação bem como sua interação com os recursos virtuais de um ambiente de nuvem são apresentadas. O modelo de nuvem considerado foi o de nuvem híbrida com uma caracterização de arquitetura orientada a serviços (SOA) na qual serviços remotos são disponibilizados aos clientes. A política de escalonamento de tarefas desenvolvida para o QBroker foi a de intermediação de serviços, considerando tratativas de QoS, diferenciação das instâncias de serviços (SOA) e alocação dinâmica de serviços. Além disso, toda a caracterização do modo de operação do QBroker foi baseada no conceito de intermediação do modelo de referência de nuvem do NIST. O componente QBroker foi introduzido numa arquitetura de computação em nuvem BEQoS (Bursty Energy and Quality of Service), desenvolvida no Laboratório de Sistemas Distribuídos e Programação Concorrente do ICMC-USP de São Carlos. Avaliações de desempenho para a implementação da arquitetura QBroker foram conduzidas por meio de programas de simulação com uso da API do simulador CloudSim e da arquitetura CloudSim-BEQoS. Três cenários experimentais foram avaliados e, segundo a análise de resultados efetuada, foi possível validar que as características arquiteturais implementadas no QBroker resultaram em significativo impacto nas variáveis de resposta consideradas. Assim, foi possível comprovar que o uso do QBroker como mecanismo de mediação em ambientes de nuvem híbrida com SOA promoveu ganhos em desempenho para o sistema de nuvem e permitiu melhoria na qualidade dos serviços oferecidos. / This doctoral thesis proposes a cloud broker architecture for hybrid cloud computing environments. A cloud broker aims to perform mediation between clients and providers, receiving customer requests and forwarding them to the service provider that best suits the requested QoS requirements. The broker architecture services with QoS proposal is called QBroker. Implementation features of its mode of operation as well as its interaction with the virtual resources from a cloud environment are presented. The cloud deployment model was considered a hybrid cloud with a characterization of service-oriented architecture (SOA) in which remote services are available to customers. The task scheduling policy developed for QBroker was the intermediation of services, considering negotiations of QoS, differentiation of services instances and dynamic allocation of services. Moreover, the entire characterization of QBroker operation mode is based on the intermediation concept of the NIST cloud reference model. The QBroker component was introduced into a cloud computing architecture BEQoS (Bursty, Energy and Quality of Service), developed in the Laboratory of Distributed Systems and Concurrent Programming at ICMC-USP. Performance evaluations analysis the of results of QBroker architecture were conducted through simulation programs using the CloudSim simulator API and CloudSim-BEQoS architecture. Three experimental scenarios were evaluated and, according to analysis of the results, it was possible to validate that the architectural features implemented in QBroker resulted in significant impact on response variables considered. Thus, it was possible to prove that the use of QBroker as mediation mechanism in hybrid cloud environments with SOA promoted performance gains for the cloud system and allowed improvement in the quality of services offered.
|
10 |
Projeto e avaliação de um broker como agente de intermediação e QoS em uma nuvem computacional híbrida / Design and evaluation of a broker as QoS and intermediation agent in hybrid cloud computingMario Henrique de Souza Pardo 16 June 2016 (has links)
A presente tese de doutorado propõe uma arquitetura de cloud broker para ambientes de computação em nuvem híbrida. Um cloud broker tem o objetivo de executar a mediação entre clientes e provedores, recebendo requisições dos clientes e encaminhando-as ao serviço do provedor que melhor se adaptar aos requisitos de qualidade de serviço (QoS) solicitados. A arquitetura de broker de serviços com QoS proposta denomina-se QBroker, características de implementação de seu modo de operação bem como sua interação com os recursos virtuais de um ambiente de nuvem são apresentadas. O modelo de nuvem considerado foi o de nuvem híbrida com uma caracterização de arquitetura orientada a serviços (SOA) na qual serviços remotos são disponibilizados aos clientes. A política de escalonamento de tarefas desenvolvida para o QBroker foi a de intermediação de serviços, considerando tratativas de QoS, diferenciação das instâncias de serviços (SOA) e alocação dinâmica de serviços. Além disso, toda a caracterização do modo de operação do QBroker foi baseada no conceito de intermediação do modelo de referência de nuvem do NIST. O componente QBroker foi introduzido numa arquitetura de computação em nuvem BEQoS (Bursty Energy and Quality of Service), desenvolvida no Laboratório de Sistemas Distribuídos e Programação Concorrente do ICMC-USP de São Carlos. Avaliações de desempenho para a implementação da arquitetura QBroker foram conduzidas por meio de programas de simulação com uso da API do simulador CloudSim e da arquitetura CloudSim-BEQoS. Três cenários experimentais foram avaliados e, segundo a análise de resultados efetuada, foi possível validar que as características arquiteturais implementadas no QBroker resultaram em significativo impacto nas variáveis de resposta consideradas. Assim, foi possível comprovar que o uso do QBroker como mecanismo de mediação em ambientes de nuvem híbrida com SOA promoveu ganhos em desempenho para o sistema de nuvem e permitiu melhoria na qualidade dos serviços oferecidos. / This doctoral thesis proposes a cloud broker architecture for hybrid cloud computing environments. A cloud broker aims to perform mediation between clients and providers, receiving customer requests and forwarding them to the service provider that best suits the requested QoS requirements. The broker architecture services with QoS proposal is called QBroker. Implementation features of its mode of operation as well as its interaction with the virtual resources from a cloud environment are presented. The cloud deployment model was considered a hybrid cloud with a characterization of service-oriented architecture (SOA) in which remote services are available to customers. The task scheduling policy developed for QBroker was the intermediation of services, considering negotiations of QoS, differentiation of services instances and dynamic allocation of services. Moreover, the entire characterization of QBroker operation mode is based on the intermediation concept of the NIST cloud reference model. The QBroker component was introduced into a cloud computing architecture BEQoS (Bursty, Energy and Quality of Service), developed in the Laboratory of Distributed Systems and Concurrent Programming at ICMC-USP. Performance evaluations analysis the of results of QBroker architecture were conducted through simulation programs using the CloudSim simulator API and CloudSim-BEQoS architecture. Three experimental scenarios were evaluated and, according to analysis of the results, it was possible to validate that the architectural features implemented in QBroker resulted in significant impact on response variables considered. Thus, it was possible to prove that the use of QBroker as mediation mechanism in hybrid cloud environments with SOA promoted performance gains for the cloud system and allowed improvement in the quality of services offered.
|
Page generated in 0.1283 seconds