• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 258
  • 98
  • 21
  • 16
  • 11
  • 9
  • 9
  • 9
  • 8
  • 6
  • 5
  • 2
  • 2
  • 2
  • 1
  • Tagged with
  • 527
  • 527
  • 91
  • 78
  • 77
  • 67
  • 65
  • 57
  • 55
  • 54
  • 51
  • 38
  • 37
  • 36
  • 35
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
171

Study of load distribution measures for high-performance applications / Estudos de medidas de distribuição de carga para aplicação de alto desempenho

Rodrigues, Flavio Alles January 2016 (has links)
Balanceamento de carga é essencial para que aplicações paralelas tenham desempenho adequado. Conforme sistemas de computação paralelos crescem, o custo de uma má distribuição de carga também aumenta. Porém, o comportamento dinâmico que a carga computacional possui em certas aplicações pode induzir disparidades na carga atribuída a cada recurso. Portanto, o repetitivo processo de redistribuição de carga realizado durante a execução é crucial para que problemas de grande escala que possuam tais características possam ser resolvidos. Medidas que quantifiquem a distribuição de carga são um importante aspecto desse procedimento. Por estas razões, métricas frequentemente utilizadas como indicadores da distribuição de carga em aplicações paralelas são investigadas nesse estudo. Dado que balanceamento de carga é um processo dinâmico e recorrente, a investigação examina como tais métricas quantificam a distribuição de carga em intervalos regulares durante a execução da aplicação paralela. Seis métricas são avaliadas: percent imbalance, imbalance percentage, imbalance time, standard deviation, skewness e kurtosis. A análise revela virtudes e deficiências que estas medidas possuem, bem como as diferenças entres as mesmas como descritores da distribuição de carga em aplicações paralelas. Uma investigação como esta não tem precedentes na literatura especializada. / Load balance is essential for parallel applications to perform at their highest possible levels. As parallel systems grow, the cost of poor load distribution increases in tandem. However, the dynamic behavior the distribution of load possesses in certain applications can induce disparities in computational loads among resources. Therefore, the process of repeatedly redistributing load as execution progresses is critical to achieve the performance necessary to compute large scale problems with such characteristics. Metrics quantifying the load distribution are an important facet of this procedure. For these reasons, measures commonly used as load distribution indicators in HPC applications are investigated in this study. Considering the dynamic and recurrent aspect in load balancing, the investigation examines how these metrics quantify load distribution at regular intervals during a parallel application execution. Six metrics are evaluated: percent imbalance, imbalance percentage, imbalance time, standard deviation, skewness, and kurtosis. The analysis reveals the virtues and deficiencies each metric has, as well as the differences they register as descriptors of load distribution progress in parallel applications. As far as we know, an investigation as the one performed in this work is unprecedented.
172

ROBIN HOOD : um ambiente para a avaliação de políticas de balanceamento de carga / Robin Hood: an environment to load balancing policies evaluation

Nogueira, Mauro Lucio Baioneta January 1998 (has links)
É ponto passivo a importância dos sistemas distribuídos no desenvolvimento da computação de alto desempenho nas próximas décadas. No entanto, ainda muito se debate sobre políticas de gerenciamento adequadas para os recursos computacionais espacialmente dispersos disponíveis em tais sistemas. Políticas de balanceamento de carga procuram resolver o problema da ociosidade das maquinas(ou, por outro lado, da super-utilização) em um sistema distribuído. Não são raras situações nas quais somente algumas maquinas da rede estão sendo efetivamente utilizadas, enquanto que varias outras se encontram subutilizadas, ou mesmo completamente ociosas. Aberta a possibilidade de executarmos remotamente uma tarefa, com o intuito de reduzirmos o tempo de resposta da mesma, ainda falta decidirmos "como" fazê-lo. Das decisões envolvidas quanto a execução remota de tarefas tratam as políticas de balanceamento de carga. Tais políticas, muito embora a aparente simplicidade quanto as decisões de controle tomadas ou ao reduzido numero de parâmetros envolvidos, não possuem um comportamento fácil de se prever. Sob determinadas condições, tais políticas podem ser tomar excessivamente instáveis, tomando sucessivas decisões equivocadas e, como consequência, degradando de forma considerável o desempenho do sistema. Em tais casos, muitas das vezes, melhor seria não tê-las. Este trabalho apresenta um ambiente desenvolvido com o objetivo de auxiliar projetistas de sistema ou analistas de desempenho a construir, simular e compreender mais claramente o impacto causado pelas decisões de balanceamento no desempenho do sistema. / There is no doubts about the importance of distributed systems in the development of high performance computing in the next decades. However, there are so much debates about appropriated management policies to spatially scattered computing resources available in this systems. Load balancing policies intend to resolve the problem of underloaded machines (or, in other hand, overloaded machines) in a distributed system. Moments in which few machines are really being used, meanwhile several others are underused, or even idle, aren't rare. Allowed the remote execution of tasks in order to decrease the response time of theirs, it remains to decide 'how' to do it. Load balancing policies deal with making decisions about remote execution. Such policies, in spite of the supposed simplicity about their control decisions and related parameters, doesn't have a predictable behavior. In some cases, such policies can become excessively unstable, making successive wrong decisions and, as consequence, degrading the system performance. In such cases, it's better no policy at all. This work presents an environment developed whose purpose is to help system designers or performance analysts to build, to simulate and to understand the impact made by balancing decisions over the system performance.
173

Performance Analysis of Low-Complexity Resource-Allocation Algorithms in Stochastic Networks Using Fluid Models

January 2015 (has links)
abstract: Resource allocation in communication networks aims to assign various resources such as power, bandwidth and load in a fair and economic fashion so that the networks can be better utilized and shared by the communicating entities. The design of efficient resource-allocation algorithms is, however, becoming more and more challenging due to the precipitously increasing scale of the networks. This thesis strives to understand how to design such low-complexity algorithms with performance guarantees. In the first part, the link scheduling problem in wireless ad hoc networks is considered. The scheduler is charge of finding a set of wireless data links to activate at each time slot with the considerations of wireless interference, traffic dynamics, network topology and quality-of-service (QoS) requirements. Two different yet essential scenarios are investigated: the first one is when each packet has a specific deadline after which it will be discarded; the second is when each packet traverses the network in multiple hops instead of leaving the network after a one-hop transmission. In both scenarios the links need to be carefully scheduled to avoid starvation of users and congestion on links. One greedy algorithm is analyzed in each of the two scenarios and performance guarantees in terms of throughput of the networks are derived. In the second part, the load-balancing problem in parallel computing is studied. Tasks arrive in batches and the duty of the load balancer is to place the tasks on the machines such that minimum queueing delay is incurred. Due to the huge size of modern data centers, sampling the status of all machines may result in significant overhead. Consequently, an algorithm based on limited queue information at the machines is examined and its asymptotic delay performance is characterized and it is shown that the proposed algorithm achieves the same delay with remarkably less sampling overhead compared to the well-known power-of-two-choices algorithm. Two messages of the thesis are the following: greedy algorithms can work well in a stochastic setting; the fluid model can be useful in "derandomizing" the system and reveal the nature of the algorithm. / Dissertation/Thesis / Doctoral Dissertation Electrical Engineering 2015
174

The Exhibitor Perspective – Providing Facility Services for a Successful Trade Show

January 2017 (has links)
abstract: Currently, show management for convention centers have several resources to help determine where to place their efforts in facility services for exhibitors, one of which is to use research results from an importance-performance analysis study. In order to help show management refine their understanding of the needs of exhibitors before a trade show, this study explores the relationship between the exhibitor’s ranking of importance placed on facility services through the Importance-Performance Analysis, and the goals exhibitors have for the trade show. A survey was conducted at three different trade shows taking place in two convention centers. Using a sample of 115 exhibitors, the underlying factors were determined for the importance exhibitors placed on facility attributes and their goals. The findings from the research show that the correlations between importance factors and goals are statistically weak, albeit some notable correlations were made. The importance performance analysis remains a strong and useful tool for show management to use and implementing the iso-rating line provides more detail for a show manager to work with. The finding of this study offer insights into the factor analysis of facility attributes as well as the importance-goals analysis conducted. / Dissertation/Thesis / Masters Thesis Community Resources and Development 2017
175

High performance trace replay event simulation of parallel programs behavior / Ferramenta de alto desempenho para análise de comportamento de programas paralelos baseada em rastos de execução

Korndorfer, Jonas Henrique Muller January 2016 (has links)
Sistemas modernos de alto desempenho compreendem milhares a milhões de unidades de processamento. O desenvolvimento de uma aplicação paralela escalável para tais sistemas depende de um mapeamento preciso da utilização recursos disponíveis. A identificação de recursos não utilizados e os gargalos de processamento requere uma boa análise desempenho. A observação de rastros de execução é uma das técnicas mais úteis para esse fim. Infelizmente, o rastreamento muitas vezes produz grandes arquivos de rastro, atingindo facilmente gigabytes de dados brutos. Portanto ferramentas para análise de desempenho baseadas em rastros precisam processar esses dados para uma forma legível e serem eficientes a fim de permitirem uma análise rápida e útil. A maioria das ferramentas existentes, tais como Vampir, Scalasca e TAU, focam no processamento de formatos de rastro com semântica associada, geralmente definidos para lidar com programas desenvolvidos com bibliotecas populares como OpenMP, MPI e CUDA. No entanto, nem todas aplicações paralelas utilizam essas bibliotecas e assim, algumas vezes, essas ferramentas podem não ser úteis. Felizmente existem outras ferramentas que apresentam uma abordagem mais dinâmica, utilizando um formato de arquivo de rastro aberto e sem semântica específica. Algumas dessas ferramentas são Paraver, Pajé e PajeNG. Por outro lado, ser genérico tem custo e assim tais ferramentas frequentemente apresentam baixo desempenho para o processamento de grandes rastros. O objetivo deste trabalho é apresentar otimizações feitas para o conjunto de ferramentas PajeNG. São apresentados o desenvolvimento de um estratégia de paralelização para o PajeNG e uma análise de desempenho para demonstrar nossos ganhos. O PajeNG original funciona sequencialmente, processando um único arquivo de rastro que contém todos os dados do programa rastreado. Desta forma, a escalabilidade da ferramenta fica muito limitada pela leitura dos dados. Nossa estratégia divide o arquivo em pedaços permitindo seu processamento em paralelo. O método desenvolvido para separar os rastros permite que cada pedaço execute em um fluxo de execução separado. Nossos experimentos foram executados em máquinas com acesso não uniforme à memória (NUMA).Aanálise de desempenho desenvolvida considera vários aspectos como localidade das threads, o número de fluxos, tipo de disco e também comparações entre os nós NUMA. Os resultados obtidos são muito promissores, escalando o PajeNG cerca de oito a onze vezes, dependendo da máquina. / Modern high performance systems comprise thousands to millions of processing units. The development of a scalable parallel application for such systems depends on an accurate mapping of application processes on top of available resources. The identification of unused resources and potential processing bottlenecks requires good performance analysis. The trace-based observation of a parallel program execution is one of the most helpful techniques for such purpose. Unfortunately, tracing often produces large trace files, easily reaching the order of gigabytes of raw data. Therefore tracebased performance analysis tools have to process such data to a human readable way and also should be efficient to allow an useful analysis. Most of the existing tools such as Vampir, Scalasca, TAU have focus on the processing of trace formats with a fixed and well-defined semantic. The corresponding file format are usually proposed to handle applications developed using popular libraries like OpenMP, MPI, and CUDA. However, not all parallel applications use such libraries and so, sometimes, these tools cannot be useful. Fortunately, there are other tools that present a more dynamic approach by using an open trace file format without specific semantic. Some of these tools are the Paraver, Pajé and PajeNG. However the fact of being generic comes with a cost. These tools very frequently present low performance for the processing of large traces. The objective of this work is to present performance optimizations made in the PajeNG tool-set. This comprises the development of a parallelization strategy and a performance analysis to set our gains. The original PajeNG works sequentially by processing a single trace file with all data from the observed application. This way, the scalability of the tool is very limited by the reading of the trace file. Our strategy splits such file to process several pieces in parallel. The created method to split the traces allows the processing of each piece in each thread. The experiments were executed in non-uniform memory access (NUMA) machines. The performance analysis considers several aspects like threads locality, number of flows, disk type and also comparisons between the NUMA nodes. The obtained results are very promising, scaling up the PajeNG about eight to eleven times depending on the machine.
176

Study of load distribution measures for high-performance applications / Estudos de medidas de distribuição de carga para aplicação de alto desempenho

Rodrigues, Flavio Alles January 2016 (has links)
Balanceamento de carga é essencial para que aplicações paralelas tenham desempenho adequado. Conforme sistemas de computação paralelos crescem, o custo de uma má distribuição de carga também aumenta. Porém, o comportamento dinâmico que a carga computacional possui em certas aplicações pode induzir disparidades na carga atribuída a cada recurso. Portanto, o repetitivo processo de redistribuição de carga realizado durante a execução é crucial para que problemas de grande escala que possuam tais características possam ser resolvidos. Medidas que quantifiquem a distribuição de carga são um importante aspecto desse procedimento. Por estas razões, métricas frequentemente utilizadas como indicadores da distribuição de carga em aplicações paralelas são investigadas nesse estudo. Dado que balanceamento de carga é um processo dinâmico e recorrente, a investigação examina como tais métricas quantificam a distribuição de carga em intervalos regulares durante a execução da aplicação paralela. Seis métricas são avaliadas: percent imbalance, imbalance percentage, imbalance time, standard deviation, skewness e kurtosis. A análise revela virtudes e deficiências que estas medidas possuem, bem como as diferenças entres as mesmas como descritores da distribuição de carga em aplicações paralelas. Uma investigação como esta não tem precedentes na literatura especializada. / Load balance is essential for parallel applications to perform at their highest possible levels. As parallel systems grow, the cost of poor load distribution increases in tandem. However, the dynamic behavior the distribution of load possesses in certain applications can induce disparities in computational loads among resources. Therefore, the process of repeatedly redistributing load as execution progresses is critical to achieve the performance necessary to compute large scale problems with such characteristics. Metrics quantifying the load distribution are an important facet of this procedure. For these reasons, measures commonly used as load distribution indicators in HPC applications are investigated in this study. Considering the dynamic and recurrent aspect in load balancing, the investigation examines how these metrics quantify load distribution at regular intervals during a parallel application execution. Six metrics are evaluated: percent imbalance, imbalance percentage, imbalance time, standard deviation, skewness, and kurtosis. The analysis reveals the virtues and deficiencies each metric has, as well as the differences they register as descriptors of load distribution progress in parallel applications. As far as we know, an investigation as the one performed in this work is unprecedented.
177

Análise da lucratividade de clientes de uma operadora de sáude / Customer profitability analysis in a health maintenance organization

Lívia Lourenço Baptista 24 October 2016 (has links)
O presente estudo tem como objetivo analisar a lucratividade dos clientes em uma operadora de saúde do segmento de baixo custo no Brasil. O mercado de saúde suplementar enfrenta inúmeros desafios para prosperar. Com a expansão nos últimos anos da classe média brasileira - a classe C - houve um aumento da demanda por serviços de planos de saúde privados de baixo ticket-médio. Foi realizada uma revisão da literatura, para embasar os princípios de modelos de negócios, a análise de lucratividade do cliente e a segmentação de clientes em uma operadora de saúde. O método utilizado foi um estudo de caso único, com pesquisa de dados de ordem qualitativa e quantitativa. Foram realizadas algumas entrevistas com os três principais executivos da operadora investigada, com o intuito de compreender o modelo de negócio construído e todos os seus diferenciais e inovações que garantiram seus resultados superiores à média do setor. Foram coletados dados contábeis, bases de receita e custo por beneficiário para análise quantitativa do resultado. Foi apresentado o modelo de negócio do estudo de caso investigado, bem como avaliada a lucratividade de clientes da operadora. Iniciou-se por uma análise quantitativa geral de variação contábil, com aprofundamento de análises na base de receita e custo de clientes, por sinistralidade, margem de contribuição absoluta e demais parâmetros, além da aplicação do conceito de CLV - Customer Lifetime Value. Ao analisar os resultados associados à avaliação da lucratividade, foram constatadas ações que pudessem ser tomadas para a melhora da mensuração do resultado final. O final das análises por cliente e por CLV se concentraram em grandes clientes corporativos, pois estes representam mais de 70% da carteira da operadora investigada. A conclusão apresentada foi a seguinte: para aumentar a margem de lucro absoluta bruta (R$) do negócio, ao subtrair as despesas assistenciais das receitas, deve-se segmentá-la por tipo de cliente e encontrar a margem de contribuição de cada. Na sequência, é necessário reajustar os clientes com margem de contribuição negativa, logo, obtém-se o maior resultado possível em termos de margem bruta total absoluta. Porém, mesmo para os clientes com margem de contribuição positiva, deve-se aprofundar sua análise de valor no tempo com o conceito do CLV. Verificou-se que clientes de margem positiva podem apresentar um CLV negativo para o mesmo período analisado. Esses clientes não devem ser desconsiderados, porque afetariam o resultado final, porém devem ser destacados na gestão, para serem mais bem renegociados numa revisão de valores contratuais e aumento do seu ticket-médio. / This study aims to analyze the profitability of customers in a health maintenance organization (HMO) of low-cost segment in Brazil. The health insurance market faces numerous challenges to thrive. With the expansion in recent years of Brazilian middle class - the class \'C,\' there was an increase in demand for private health plans to low-average ticket services. A literature review was conducted to support the principles of business models, customer profitability analysis and customer segmentation in a health provider. The method used was a single case study, with qualitative and quantitative research data. Interviews were conducted with the top three executives in the investigated company, to understand the business as presented, as well as the analysis of HMO\'s customer profitability. It´s began as a general quantitative analysis of accounting variation, with deeper analysis on revenue and cost base per members, by MLB (Medical Loss Benefit), gross margin and other parameters, in addition to applying the concept of CLV - Customer Lifetime Value. When analyzing the results associated with the evaluation of profitability, actions were found that could be taken to improve the measurement of the final result. The end of the analysis by customer and by CLV was focused on large corporate clients, as they represent more than 70% of the investigated portfolio. The conclusion was presented: to increase model built and all its advantages and innovations that have ensured their results above the industry average. We collected accounting data, revenue and cost base by membership for quantitative analysis. The business model of the investigated case study the margin of gross profit absolute (R$) in the business, by subtracting the medical cost from revenues, it should be segmented by customer type and find the contribution margin of each one. Further, it should be reajusted all customers with a negative contribution margin, so it could be obtained the highest possible result in terms of absolute gross margin. But even customers with positive contribution margin, should be deepen in their analysis of value in time with the concept of CLV. It was found that positive margin accounts may have a negative CLV for the same reported period. Those customers should not be disconsidered, because affect the final result, but should be highlighted in the management review, to be better renegotiated as contract values and increased its ticket-average.
178

FOLE: A Conceptual Framework for Elasticity Performance Analysis in Cloud Computing Environments / FOLE: Um Framework Conceitual para AvaliaÃÃo de Desempenho da Elasticidade em Ambientes de ComputaÃÃo em Nuvem

Emanuel Ferreira Coutinho 03 November 2014 (has links)
Currently, many customers and providers are using resources of Cloud Computing environments,such as processing and storage, for their applications and services. Through ease of use, based on the pay per use model, it is natural that the number of users and their workloads also grow. As a result, providers should expand their resources and maintain the agreed level of quality for customers, otherwise breaks the Service Level Agreement (SLA) and the resulting penalties. With the increase in computational resources usage, a key feature of Cloud Computing has become quite attractive: the elasticity. Elasticity can be defined as how a computational cloud adapts to variations in its workload through resources provisioning and deprovisioning. Due to limited availability of information regarding configuration of the experiments, in general is not trivial to implement elasticity concepts, much less apply them in cloud environments. Furthermore, the way of measuring cloud elasticity is not obvious, and there is not yet a standard for this task. Moreover, its evaluation could be performed in different ways due to many technologies and strategies for providing cloud elasticity. A common aspect of elasticity performance analysis is the use of environmental resources, such as CPU and memory, and even without a specific metric, to allow an indirectly assess of elasticity. In this context, this work proposes FOLE, a conceptual framework for conducting performance analysis of elasticity in Cloud Computing environments in a systematic, flexible and reproducible way. To support the framework, we proposed a set of specific metrics for elasticity and metrics for its indirect measurement. For the measurement of elasticity in Cloud Computing, we proposed metrics based on concepts of Physics, such as strain and stress, and Microeconomics, such as Price Elasticity of Demand. Additionally, we also proposed metrics based on resources allocation and deallocation operation times, and used resources, to support the measurement of elasticity. For verification and validation of the proposal, we performed two experiments, one in a private cloud and other in a hybrid cloud, using microbenchmarks and a classic scientific application, through a designed infrastructure based on concepts of Autonomic Computing. Through these experiments, FOLE had validated their activities, allowing the systematization of a elasticity performance analysis. The results show it is possible to assess the elasticity of a Cloud Computing environment using specific metrics based on other areas of knowledge, and also complemented by metrics related to time and resources operations satisfactorily. / Atualmente muitos clientes e provedores estÃo utilizando recursos de ambientes de ComputaÃÃo em Nuvem, tais como processamento e armazenamento, para suas aplicaÃÃes e serviÃos. Devido à facilidade de utilizaÃÃo, baseada no modelo de pagamento por uso, à natural que a quantidade de usuÃrios e suas respectivas cargas de trabalho tambÃm cresÃam. Como consequÃncia, os provedores devem ampliar seus recursos e manter o nÃvel de qualidade acordado com os clientes, sob pena de quebras do Service Level Agreement (SLA) e consequentes multas. Com o aumento na utilizaÃÃo de recursos computacionais, uma das caracterÃsticas principais da ComputaÃÃo em Nuvem tem se tornado bastante atrativa: a elasticidade. A elasticidade pode ser definida como o quanto uma nuvem computacional se adapta a variaÃÃes na sua carga de trabalho atravÃs do provisionamento e desprovisionamento de recursos. Devido à pouca disponibilidade de informaÃÃo em relaÃÃo à configuraÃÃo dos experimentos, em geral nÃo à trivial implementar conceitos de elasticidade, muito menos aplicÃ-los em ambientes de nuvens computacionais. AlÃm disso, a maneira de se medir a elasticidade nÃo à tÃo Ãbvia, e bastante variada, nÃo havendo ainda uma padronizaÃÃo para esta tarefa, e sua avaliaÃÃo pode ser executada de diferentes maneiras devido Ãs diversas tecnologias e estratÃgias para o provimento da elasticidade. Um aspecto comum na avaliaÃÃo de desempenho da elasticidade à a utilizaÃÃo de recursos do ambiente, como CPU e memÃria, e mesmo sem ter uma mÃtrica especÃfica para a elasticidade, à possÃvel se obter uma avaliaÃÃo indireta. Nesse contexto, este trabalho propÃe o FOLE, um framework conceitual para a realizaÃÃo de anÃlise de desempenho da elasticidade em nuvens computacionais de maneira sistemÃtica, flexÃvel e reproduzÃvel. Para apoiar o framework, mÃtricas especÃficas para a elasticidade e mÃtricas para sua mediÃÃo indireta foram propostas. Para a mediÃÃo da elasticidade em ComputaÃÃo em Nuvem, propomos mÃtricas baseadas em conceitos da FÃsica, como tensÃo e estresse, e da Microeconomia, como Elasticidade do PreÃo da Demanda. Adicionalmente, mÃtricas baseadas em tempos de operaÃÃes de alocaÃÃo e desalocaÃÃo de recursos, e na utilizaÃÃo desses recursos foram propostas para apoiar a mediÃÃo da elasticidade. Para verificaÃÃo e validaÃÃo da proposta, dois estudos de caso foram realizados, um em uma nuvem privada e outro em uma nuvem hÃbrida, com experimentos projetados utilizando microbenchmarks e uma aplicaÃÃo cientÃfica clÃssica, executados sobre uma infraestrutura baseada em conceitos de ComputaÃÃo AutonÃmica. Por meio desses experimentos, o FOLE foi validado em suas atividades, permitindo a sistematizaÃÃo de uma anÃlise de desempenho da elasticidade. Os resultados mostram que à possÃvel avaliar a elasticidade de um ambiente de ComputaÃÃo em Nuvem por meio de mÃtricas especÃficas baseadas em conceitos de outras Ãreas de conhecimento, e tambÃm complementada por mÃtricas relacionadas a tempos de operaÃÃes e recursos de maneira satisfatÃria.
179

Escalonamento em grades móveis: uma abordagem ciente do consumo de energia / Mobile grid scheduling: an energy-aware approach

Luiz César Borro 14 January 2014 (has links)
Considerando-se o contexto de gerenciamento energético em grades móveis, neste trabalho foram propostos dois algoritmos de escalonamento (Maximum Regret e Greedy) que, além de minimizar o consumo de energia, visam assegurar o cumprimento dos requisitos de qualidade de serviço das aplicações submetidas pelos usuários. Tais algoritmos foram projetados a partir de soluções heurísticas para o problema de escalonamento ciente de consumo de energia em grades móveis, que foi modelado como um problema de otimização envolvendo variáveis binárias. Por meio de experimentos, que consideraram tanto cenários estáticos quanto dinâmicos, foi demonstrada a viabilidade dos algoritmos de escalonamento propostos em relação à redução do consumo de energia. Em seu pior caso, o algoritmo Maximum Regret foi 12,18% pior que o referencial determinado pela melhor solução do solver Gurobi; já no pior caso do algoritmo Greedy, tal diferença foi de apenas 8,14% / Considering the context of energy management in mobile grids, this work proposes two scheduling algorithms (Maximum Regret and Greedy) that aim not only to reduce the energy consumption of the mobile devices, but also to ensure the QoS (Quality of Service) requirements of the running applications. These algorithms were designed based on heuristics for the energy aware scheduling problem in mobile grids, which was modeled as an optimization problem with integer variables. The performances of the proposed scheduling algorithms were evaluated by an extensive set of experiments, which demonstrated the feasibility of the adopted approach regarding energy consumption minimization. In its worst case, the Maximum Regret algorithm was 12.18% worse than the best solution provided by the Gurobi solver. While in the Greedys worst case the performance difference was just 8.14%
180

Análise de desempenho dos Stakeholders voltados ao programa de aquisição de alimentos (PAA), por meio do estudo de multicasos no território rural de serra da mesa em Goiás / Performance analysis of Stakeholders to purchase food program (PAA), the multicases study in rural territory of serra da mesa in Goias

Barreto, Rodolfo Prado 15 September 2015 (has links)
Submitted by Luciana Ferreira (lucgeral@gmail.com) on 2016-04-15T11:41:57Z No. of bitstreams: 2 Dissertação - Rodolfo Prado Barreto - 2015.pdf: 2910223 bytes, checksum: 8bbda096f871092b157cc1b6ac3775ea (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) / Approved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2016-04-15T11:46:48Z (GMT) No. of bitstreams: 2 Dissertação - Rodolfo Prado Barreto - 2015.pdf: 2910223 bytes, checksum: 8bbda096f871092b157cc1b6ac3775ea (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) / Made available in DSpace on 2016-04-15T11:46:48Z (GMT). No. of bitstreams: 2 Dissertação - Rodolfo Prado Barreto - 2015.pdf: 2910223 bytes, checksum: 8bbda096f871092b157cc1b6ac3775ea (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) Previous issue date: 2015-09-15 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / This study was developed by identifying stakeholder wrapped the Food Purchase Program (PAA), the Rural Territory of Serra da Mesa in Goiás, Brazil. Were searched: The National Supply Company (CONAB), family farmers, social organizations rural, public schools and social assistance entities in São Luiz do Norte, Minaçu and Niquelândia participating in the PAA in the purchase acquisition mode with simultaneous donation (CDS). It is considered as main objective to analyze the performance of stakeholders focused the program on Rural Territory of Serra da Mesa, with specific objectives, mapping the chain access to PAA; identification of stakeholders; establishment of the profile of family farmers and schools and receiving entities of food; and program performance analysis. The study is justified as a source of information academic community, methodological suggestion situational survey of PAA and complementary studies on the performance of public policies for food security and nutrition and to encourage family farming. The methodological framework was developed and implemented in two stages, the first, the search for adequate theoretical framework, on the theory of stakeholders, the Brazilian family farming, public policies related to rural areas and the PAA. In the second part, through case study, three sites were chosen in the rural area for analysis. The research is exploratory, using multicases, used the following sources of evidence: official documentation, records in public archives, field reports and interviews with semi-structured questionnaire. The chain of access to the program consists of information, documentation sent to CONAB, technical part of the project, access itself and maintaining participation. The main stakeholders identified were grouped as: government agencies (federal, state and local) and target groups (farmers and their cooperatives / associations and public schools and charities). The profile of the farmers pointed to age group 50-54 years, living in rural areas, with hand use of family labor, with 41-60% of production destined for the PAA, do not access other public policy and are participating members of one or more social organizations. As for schools and entities, 51-60% of the food used in school meals comes from the PAA, the directors are responsible for the internal supervision of food delivered, averaging three years of experience with the program. In performance evaluation, the federal public authorities linked to the PAA obtained top scores, especially the CONAB. The lowest scores were observed for the state government and local governments / Esse estudo foi desenvolvido por meio da identificação dos stakeholders envoltos ao Programa de aquisição de alimentos (PAA), no Território Rural de Serra da Mesa em Goiás. Sendo pesquisados: a Companhia Nacional de Abastecimento (CONAB), os agricultores familiares, as organizações sociais rurais, as escolas públicas e entidades socioassistenciais de São Luiz do Norte, Minaçu e Niquelândia que participam do PAA na modalidade de aquisição de Compra com doação simultânea (CDS). Considera-se como objetivo principal analisar o desempenho dos stakeholders voltados ao programa no Território Rural de Serra da Mesa, tendo como objetivos específicos: o mapeamento da cadeia de acesso ao PAA; identificação dos stakeholders; o estabelecimento do perfil dos agricultores familiares e das escolas e entidades recebedoras dos alimentos; e, a análise de desempenho do programa. O estudo justifica-se como fonte de informações a comunidade acadêmica, sugestão metodológica de levantamento situacional do PAA e viés complementar aos estudos sobre o desempenho de políticas públicas de segurança alimentar e nutricional e de incentivo a agricultura familiar. A estrutura metodológica foi elaborada e executada em duas etapas, na primeira, a busca por referencial teórico adequado, sobre a teoria dos stakeholders, a agricultura familiar brasileira, as políticas públicas ligadas ao meio rural e o PAA. Na segunda parte, por meio de estudo de caso, foram escolhidas três localidades no território rural para análise. A pesquisa é exploratória, com uso de multicasos, atendendo aos objetivos enumerados do trabalho, pelo uso das seguintes fontes de evidência: a documentação oficial, os registros em arquivo público, os relatórios de campo e as entrevistas por meio de questionário semiestruturado. A cadeia de acesso ao programa consiste em informação, envio de documentação a CONAB, parte técnica do projeto, acesso propriamente dito e manutenção de participação. Os principais stakeholders identificados foram agrupados em: instâncias governamentais (órgãos públicos federais, estaduais e municipais) e público alvo (agricultores e suas cooperativas/associações, as escolas públicas e entidades assistenciais). O perfil dos agricultores apontou para faixa etária de 50 a 54 anos, residentes na área rural, com utilização de mão de obra familiar, tendo de 41 a 60% da produção destinado ao PAA, não acessam outra política pública e são membros participantes de uma ou mais organizações sociais. Quanto às escolas e entidades, de 51 a 60% dos alimentos utilizados na merenda escolar advém do PAA, os diretores são os responsáveis pela fiscalização interna dos alimentos entregues, tendo em média 3 anos de experiência com o programa. Na avaliação de desempenho, as instâncias públicas federais ligadas ao PAA obtiveram as melhores notas, com destaque para a CONAB. As notas mais baixas foram observadas para o governo estadual e as prefeituras.

Page generated in 0.1271 seconds