• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 266
  • 16
  • 2
  • 1
  • 1
  • Tagged with
  • 289
  • 144
  • 63
  • 56
  • 40
  • 36
  • 34
  • 32
  • 31
  • 30
  • 29
  • 29
  • 26
  • 26
  • 26
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Uma solução integrada aplicada ao problema de otimização do ciclo de montagem de uma insersora automática de componentes utilizando uma abordagem híbrida de metaheurísticas

Borges, Diogo Alberto 23 March 2009 (has links)
Made available in DSpace on 2015-03-05T14:01:20Z (GMT). No. of bitstreams: 0 Previous issue date: 23 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Este trabalho aborda o problema da otimização relacionado ao ciclo de operação de uma insersora automática de componentes (pick-and-place) em máquinas do tipo multi-head. O objetivo consiste em desenvolver uma técnica computacional capaz de encontrar uma boa solução para o problema de otimização, associado ao processo de inserção de componentes. A otimização consiste em resolver de forma conjunta, os Problemas de Escalonamento das Ferramentas, de Escalonamento da Seqüência de Inserção de Componentes e por fim, o Problema da Alocação dos Componentes no Alimentador, visando a redução do tempo total de operação. Como resultados, a técnica computacional permite elevar a produtividade das máquinas onde a mesma é aplicada. Neste trabalho, foi desenvolvida uma aplicação híbrida das metaheurísticas Busca Tabu e Algoritmos Genéticos. Através do uso de uma abordagem diferenciada e utilizando metaheurísticas contemporâneas, bons resultados são apresentados ao longo do trabalho. / This work approaches the optimization Problem related to the operation cycle in an automatic multi-head SMT placement machine (pick-and-place). The objective of this work is developing a computational technique capable to find a good solution for the optimization problem associated with the component insertion process. The optimization process was planned to solve in a joint way the Tools Scheduling Problem, Schedule of Component Insertion Sequence Problem and finally the Component Feeder Allocation Problem. The main objective is to reduce the total operation time. As a result the computational technique can increase the productivity of the machines where it is applied. This study developed a hybrid application of Tabu Search and Genetic Algorithms. The use of a differentiated approach combined with modern metaheuristics, good results are presented in the work.
72

Estudo numérico do escalonamento de um leito fluidizado circulante utilizando o conjunto simplificado das leis de escala de Glicksman

Pedroso, Fabiano Anderson 29 August 2013 (has links)
Submitted by Maicon Juliano Schmidt (maicons) on 2015-04-15T20:36:34Z No. of bitstreams: 1 Fabiano Anderson Pedroso.pdf: 4283933 bytes, checksum: 9e8c395fe9319e367efba6745553280e (MD5) / Made available in DSpace on 2015-04-15T20:36:34Z (GMT). No. of bitstreams: 1 Fabiano Anderson Pedroso.pdf: 4283933 bytes, checksum: 9e8c395fe9319e367efba6745553280e (MD5) Previous issue date: 2013-01-31 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / PROSUP - Programa de Suporte à Pós-Gradução de Instituições de Ensino Particulares / A combustão em Leito Fluidizado (LF) é caracterizada por sua capacidade de redução das emissões de poluentes em relação aos métodos tradicionais de queima do combustível pulverizado. No Brasil, há um potencial de geração de energia em LF pela combustão do carvão mineral, dada a quantidade de reservas disponíveis, das quais mais de 99% se concentram nos estados do Rio Grande do Sul e de Santa Catarina. Dentre as tecnologias disponíveis para combustão e gaseificação em LF, destaca-se a de Leito Fluidizado Circulante (LFC), devido ao potencial de uso em gaseificação integrada a um ciclo combinado de conversão de energia (IGCC). No projeto, dimensionamento e operação de LFs, o entendimento do escoamento multifásico gás-sólido é de suma importância. As leis de escalonamento de Glicksman fornecem as regras necessárias para construção de leitos em escala com similaridade fluidodinâmica, permitindo reproduzir em escala piloto ou mesmo de laboratório a fluidodinâmica de um leito em escala industrial. Aliado a isso, a Dinâmica dos Fluidos Computacional (CFD) vem se estabelecendo como uma poderosa ferramenta para a simulação dos processos em LFC. Portanto, o objetivo deste trabalho é desenvolver um modelo computacional para a simulação da fluidodinâmica de LFCs utilizando o código livre MFIX e aplicar esse modelo para validação das leis de escala através da modelagem numérica de um LFC em escala real com validação experimental e um leito em escala reduzida de acordo com o conjunto simplificado. Para isso, foram desenvolvidos um leito em completa correspondência com o conjunto simplificado, seis leitos escalonados com alteração de parâmetros operacionais e um leito escalonado pelo conjunto completo das leis de escalonamento de Glicksman. O modelo computacional é baseado na abordagem Euler-Granular, em que as fases gás e sólido são consideradas como meios contínuos interpenetrantes. A fase sólida é modelada como um fluido cujo tensor tensão é construído de modo a descrever o escoamento da fase particulada conforme a teoria cinética dos escoamentos granulares (KTGF). O modelo físico aproximado para validação da simulação para a escala real foi o Terceiro Desafio promovido em parceria pela NETL e PSRI. Entre as escalas, foram comparados os perfis horizontal e vertical de fração volumétrica de gás; perfis horizontais de velocidade vertical adimensional dos sólidos e fluxo mássico adimensional de sólidos; perfil vertical de perda de carga adimensional e a evolução temporal da fração volumétrica de gás média. No presente estudo, os resultados permitiram verificar que, na modelagem numérica de uma escala reduzida a partir do conjunto simplificado das leis de escalonamento de Glicksman, a média do Erro Relativo Médio (ERM) ponderado sobre todos os perfis analisados apresentou um valor de 14,2% em relação a escala real, aceitável para esse tipo de sistema. Também se verificou que a diminuição do diâmetro das partículas em não conformidade com as leis de escala, em alguns dos perfis analisados, implicou em uma redução do ERM em comparação com aquele obtido pelos resultados do conjunto simplificado, devido a maior aproximação do diâmetro da partícula do valor determinado pelo conjunto completo. Em relação à comparação dos resultados obtidos pelo conjunto simplificado e completo das leis de escalonamento de Glicksman, confirma-se o esperado - uma maior correspondência para o leito escalonado pelo conjunto completo, com destaque à correta previsão do perfil horizontal do fluxo mássico adimensional de sólidos, não previsto pelo conjunto simplificado. Dessa forma, considera-se que o conjunto simplificado das leis de escala de Glicksman, dentro de suas limitações intrínsecas, fornece uma boa aproximação para o escalonamento de LFCs através da simulação numérica Euler-Granular. / Fluidized bed (FB) combustion has as main feature its capacity to reduce the release of pollutants in relation to conventional burning methods of pulverized fuel. Brazil has a potential in energy generation with FB through the combustion of coal, given the number of available reservoirs, of which 99% are located in the Southern states of Rio Grande do Sul and Santa Catarina. Among the available technologies for combustion and gasification on FB, we can highlight that of Circulating Fluidized Beds (CFB), given its use in Integrated Gasification Combined Cycles (IGCC). In the project, design and operation of FBs, the understanding of the gas-solid multiphase flow is highly important. Glicksman’s scaling laws provide the guidance needed for building beds in scale with fluid dynamics similarity, allowing the reproduction in pilot or even laboratory level of the fluid dynamics of a bed in industrial level. Along with that, Computational Fluid Dynamics (CFD) has established itself as a powerful tool in the simulation of CFB processes. Therefore, the aim of this paper is to develop a computational model for the simulation of CFBs fluid dynamics, using the MFIX code and to apply this model to the validation of scaling rules through the numerical modeling of a CFB in real scale with experimental validation and a bed in reduced scale according to a reduced set. For that to happen, a bed in fully correspondence wtih the reduced set, six scaled beds with alterations in their operational parameters, and a bed scaled by the full-set of Glicksman’s scaling laws have been developed. The computational model is based on the Euler-Granular Approach, in which the solid and gas phases are considered as interpenetrating continua. The solid phase is modeled as a fluid whose tensors are built in order to describe the flow of the granular phase according to the kinetic theory of granular flows (KTGF). The approximate physical model for the validation of this simulation to real scale was the Third Challenge held by NETL and PSRI. A comparison was made among the scales, one of the horizontal and vertical profiles of gas volume fraction; horizontal of vertical dimensionless speed of solids and dimensionless mass flux of solids; vertical of dimensionless pressure drop and the temporal evolution of the average gas volume fraction. In this study, the results allowed to verify that, in the numeral modeling of a reduced scale based on the reduced set of Glicksman’s scaling laws, the average of Relative Error (RE) considered over all the analyzed profiles showed a 14.2% value in relation to the real scale, which is acceptable for this kind of system. It has also been verified that the reduction in diameter of particles which were not suitable with the scaling laws, in some of the analyzed profiles, resulted in a reduction of RE when compared to that obtained through the results of the reduced set, due to a larger approximation of the particles diameter to the value determined by the full-set. Regarding the comparison of the results obtained through the reduced and full-set of Glicksman’s scaling laws, the most expected was confirmed – a larger matching for the bed scaled through the full-set, highlighting the correct prediction of the horizontal profile of the dimensionless mass flux of solids, which was not predicted by the reduced set. Thus, the reduced set of Glicksman’s scaling laws provides, within its inherent limitations, a good approximation for the scaling of CFBs through the Euler-Granular numerical simulation.
73

Scalable state machine replication / Replicação escalável de máquina de estados

Bezerra, Carlos Eduardo Benevides January 2016 (has links)
Redundância provê tolerância a falhas. Um serviço pode ser executado em múltiplos servidores que se replicam uns aos outros, de maneira a prover disponibilidade do serviço em caso de falhas. Uma maneira de implementar um tal serviço replicado é através de técnicas como replicação de máquina de estados (SMR). SMR provê tolerância a falhas, ao mesmo tempo que é linearizável, isto é, clientes não são capazes de distinguir o comportamento do sistema replicado daquele de um sistema não replicado. No entanto, ter um sistema completamente replicado e linearizável vem com um custo, que é escalabilidade – por escalabilidade, queremos dizer que adicionar servidores ao sistema aumenta a sua vazão, pelo menos para algumas cargas de trabalho. Mesmo com uma configuração cuidadosa e usando otimizações que evitam que os servidores executem ações redundantes desnecessárias, em um determinado ponto a vazão de um sistema replicado com SMR não pode ser mais aumentada acrescentando-se servidores; na verdade, adicionar réplicas pode até degradar a sua performance. Uma maneira de conseguir escalabilidade é particionar o serviço e então permitir que partições trabalhem independentemente. Por outro lado, ter um sistema particionado, porém linearizável e com razoavelmente boa performance não é trivial, e esse é o tópico de pesquisa tratado aqui. Para permitir que sistemas escalem, ao mesmo tempo que se garante linearizabilidade, nós propomos as seguinte ideias: (i) Replicação Escalável de Máquina de Estados (SSMR), (ii) Multicast Atômico Otimista (Opt-amcast) e (iii) S-SMR Rápido (Fast-SSMR). S-SMR é um modelo de execução que permite que a vazão do sistema escale de maneira linear com o número de servidores, sem sacrificar consistência. Para reduzir o tempo de resposta dos comandos, nós definimos o conceito de Opt-amcast, que permite que mensagens sejam entregues duas vezes: uma entrega garante ordem atômica (entrega atômica), enquanto a outra é mais rápida, mas nem sempre garante ordem atômica (entrega otimista). A implementação de Opt-amcast que nós propomos nessa tese se chama Ridge, um protocolo que combina baixa latência com alta vazão. Fast-SSMR é uma extensão do S-SMR que utiliza a entrega otimista do Opt-amcast: enquanto um comando é ordenado de maneira atômica, pode-se fazer alguma pré-computação baseado na entrega otimista, reduzindo assim tempo de resposta. / Redundancy provides fault-tolerance. A service can run on multiple servers that replicate each other, in order to provide service availability even in the case of crashes. A way to implement such a replicated service is by using techniques like state machine replication (SMR). SMR provides fault tolerance, while being linearizable, that is, clients cannot distinguish the behaviour of the replicated system to that of a single-site, unreplicated one. However, having a fully replicated, linearizable system comes at a cost, namely, scalability—by scalability we mean that adding servers will always increase the maximum system throughput, at least for some workloads. Even with a careful setup and using optimizations that avoid unnecessary redundant actions to be taken by servers, at some point the throughput of a system replicated with SMR cannot be increased by additional servers; in fact, adding replicas may even degrade performance. A way to achieve scalability is by partitioning the service state and then allowing partitions to work independently. Having a partitioned, yet linearizable and reasonably performant service is not trivial, and this is the topic of research addressed here. To allow systems to scale, while at the same time ensuring linearizability, we propose and implement the following ideas: (i) Scalable State Machine Replication (S-SMR), (ii) Optimistic Atomic Multicast (Opt-amcast), and (iii) Fast S-SMR (Fast-SSMR). S-SMR is an execution model that allows the throughput of the system to scale linearly with the number of servers without sacrificing consistency. To provide faster responses for commands, we developed Opt-amcast, which allows messages to be delivered twice: one delivery guarantees atomic order (conservative delivery), while the other is fast, but not always guarantees atomic order (optimistic delivery). The implementation of Opt-amcast that we propose is called Ridge, a protocol that combines low latency with high throughput. Fast-SSMR is an extension of S-SMR that uses the optimistic delivery of Opt-amcast: while a command is atomically ordered, some precomputation can be done based on its fast, optimistically ordered delivery, improving response time.
74

Essays on urban bus transport optimization

Guedes, Pablo Cristini January 2017 (has links)
Nesta tese, nós apresentamos uma compilação de três artigos de otimização aplicados no contexto de transporte urbano de ônibus. O principal objetivo foi estudar e implementar heurísticas com base em Pesquisa Operacional para otimizar problemas de (re)escalonamento de veículos off-line e on-line considerando várias garagens e frota heterogênea. No primeiro artigo, foi proposta uma abordagem heurística para o problema de escalonamento de veículos múltiplas garagens. Acreditamos que as principais contribuições são o método de geração de colunas para grandes instâncias e as técnicas de redução do espaço de estados para acelerar as soluções. No segundo artigo, adicionamos complexidade ao considerar a frota heterogênea, denotada como multiple depot vehicle type scheduling problem (MDVTSP). Embora a importância e a aplicabilidade do MDVTSP, formulações matemáticas e métodos de solução para isso ainda sejam relativamente inexplorados. A principal contribuição desse trabalho foi o método de geração de colunas para o problema com frota heterogênea, já que nenhuma outra proposta na literatura foi identificada no momento pelos autores. Na terceira parte desta tese, no entanto, nos concentramos no reescalonamento em tempo real para o caso de quebras definitivas de veículos. A principal contribuição é a abordagem eficiente do reescalonamento sob uma quebra. A abordagem com redução de espaço de estados, solução inicial e método de geração de colunas possibilitou uma ação realmente em tempo real. Em menos de cinco minutos, reescalonando todas as viagens restantes. / In this dissetation we presented a three articles compilation in urban bus transportation optimization. The main objective was to study and implement heuristic solutions method based on Operations Research to optimizing offline and online vehicle (re)scheduling problems considering multiple depots and heterogeneous fleet. In the first paper, a fast heuristic approach to deal with the multiple depot vehicle scheduling problem was proposed. We think the main contributions are the column generation framework for large instances and the state-space reduction techniques for accelerating the solutions. In the second paper, we added complexity when considering the heterogeneous fleet, denoted as "the multiple-depot vehicle-type scheduling problem" (MDVTSP). Although the MDVTSP importance and applicability, mathematical formulations and solution methods for it are still relatively unexplored. We think the main contribution is the column generation framework for instances with heterogeneous fleet since no other proposal in the literature has been identified at moment by the authors. In the third part of this dissertation, however, we focused on the real-time schedule recovery for the case of serious vehicle failures. Such vehicle breakdowns require that the remaining passengers from the disabled vehicle, and those expected to become part of the trip, to be picked up. In addition, since the disabled vehicle may have future trips assigned to it, the given schedule may be deteriorated to the extent where the fleet plan may need to be adjusted in real-time depending on the current state of what is certainly a dynamic system. Usually, without the help of a rescheduling algorithm, the dispatcher either cancels the trips that are initially scheduled to be implemented by the disabled vehicle (when there are upcoming future trips planned that could soon serve the expected demand for the canceled trips), or simply dispatches an available vehicle from a depot. In both cases, there may be considerable delays introduced. This manual approach may result in a poor solution. The implementation of new technologies (e.g., automatic vehicle locators, the global positioning system, geographical information systems, and wireless communication) in public transit systems makes it possible to implement real-time vehicle rescheduling algorithms at low cost. The main contribution is the efficient approach to rescheduling under a disruption. The approach with integrated state-space reduction, initial solution, and column generation framework enable a really real-time action. In less than five minutes rescheduling all trips remaining.
75

Escalonamento de tanques condicionadores utilizados na flotação de apatita. / Scale-up of stirred tanks for reagent conditioning at apatite flotation.

Sousa, Paulo Rogério Meneses de 14 December 2010 (has links)
Este trabalho estudou a aplicação de oito métodos clássicos de escalonamento de tanques condicionadores, testando sua validade para dois tanques de geometria semelhante, mas com diferentes volumes (V1=10 e V2=49 decímetros cúbicos). No interior dos tanques, operavam impulsores (diâmetro D1=0,078m x D2=0,132m) que exibiam três distintos desenhos (2 pás versus 4 pás inclinadas em 45 graus versus turbina de Rushton). Sua rotação (N1 no tanque menor x N2 no tanque maior) visava à suspensão de partículas grossas de apatita (diâmetro médio = 254 micrometros) em polpas com 40% de sólidos em massa. Para balizar o escalonamento, adotou-se como variável de controle a mínima rotação do impulsor (Njs) que é capaz de fazer com que nenhuma partícula repouse no fundo do tanque por mais do que 1 ou 2 segundos (Critério 1-s), além de perfis axiais de distribuição de sólidos e a extensão da Zona Turbulenta versus Zona Quiescente no interior dos tanques. A diferença entre o valor previsto de Njs para o tanque de 49 decímetros cúbicos (N2) pelos métodos de escalonamento versus o valor de Njs (N2) determinado experimentalmente foi expressa como erro percentual (E). Consideraram-se como adequados para a aplicação que constitui o objetivo desta dissertação todos os métodos que exibiram E menor que 10%. Para o impelidor de 2 pás inclinadas, a adequação do método baseado na constância da razão potência/volume (E=2%) e também do método empírico de Rautzen (E=6%), indica a expressão N2=N1.(D1/D2) com seu expoente da relação entre os diâmetros variando entre 0,67 e 0,75 para a aplicação desejada. Considerando o impulsor de 4 pás inclinadas, a adequação do método da constância da razão potência/volume (E=4%); assim como dos métodos empíricos de Rautzen (E=0%) e Zwietering (5%), sugere o uso da expressão N2=N1.(D1/D2) com seu expoente da relação entre os diâmetros variando entre 0,67 e 0,85. Para a turbina de Rushton, o único método que exibiu E menor que 10% foi o da constância da relação potência/volume (E=8%), cuja expressão é N2=N1.(D1/D2) com seu expoente da relação entre os diâmetros igual a 0,67. Uma vez que a determinação do valor real de N2 foi baseada numa técnica experimental influenciada pelas limitações do observador, pode-se inferir que uma expressão geral de escalonamento do tipo N2=N1.(D1/D2) com seu expoente da relação entre os diâmetros igual a 0,75 atende aos propósitos desta aplicação. Por outro lado, o uso da relação P/V provê um critério mais objetivo para se balizar o escalonamento, haja vista que ele se adequou a todos os três tipos de impelidores contemplados por este estudo. / This work has studied the application of eight classical methods appointed by literature to accomplish the scale-up of stirred tanks which aimed to suspend slurries of 40% of solids, containing coarse (mean diameter=254 micrometers) apatite particles. The validity of the methods was accomplished by using two tanks of similar geometry but different capacity (V1=10 e V2=49 cubic decimeter), together with impellers of different diameter (D1=0,078m versus D2=0,132m) and design (turbine of 2 or 4 blades inclined at 45 degrees and Rushton turbine). To assist the process of validation, the impeller speed (Njs) under which no particle rests on the bottom of the tank for more than 1-2 seconds (1-s Criterium) was used together with the axial profile of solids percent distribution plus the extension of the turbulent versus quiescent zones within the two tanks. For any of the eight scale-up methods, the difference between the predicted value of Njs (N2) for the 49 cubic decimeter tank and the actual value (experimental) of the same variable was determined and its magnitude was expressed in terms of the percent error (E). The methods that yielded E less than 10% were considered as suitable for the aimed application. Considering the 2-inclined blade impeller, low value of E yielded by the method based on the constancy of the ratio power/volume (E=2%) and also by the empiric method of Rautzen (E=6%) indicate that the expression N2=N1.(D1/D2) with its exponent of the relation between diameters ranging between 0,67 and 0,75 is suitable for the desired application. Regarding the 4-inclined blade impeller, because the method based on the constancy of the ratio power/volume (E=4%) and also the empiric methods of Rautzen (E=0%) and Zwietering (E=5%) yielded the lowest values of E, the expression N2=N1.(D1/D2) with its exponent of the relation between diameters ranging between 0,67 and 0,85 is suitable for the aimed application. Moreover, for the Rusthon turbine, only the method based on the constancy of the ratio power/volume (E=8%) was adequate for the aimed application and, thus, the expression N2=N1.(D1/D2) with its exponent of the relation between the diameters equal to 0,67 is suitable for the purpose of this dissertation. Once the actual value of N2 is determined by visual observation, it is not possible to get very accurate results. This way, a generic scale-up expression is proposed: N2=N1.(D1/D2) with its exponent of the relation between the diameters equal to 0,75. On the other hand, the ratio P/V may provide a more objective criterium for scale-up, because the three sort of impellers used in this study yielded E less than 10% when the power/volume method was applied for the purpose of scale-up.
76

Avaliação de políticas de escalonamento para execução de simulações distribuídas / Evaluation of politics of scheduling for execution of distributed simulations

Carvalho Junior, Osvaldo Adilson de 26 May 2008 (has links)
Um melhor escalonamento em simulação distribuída é fundamental para uma execução mais rápida e eficiente. O projeto desenvolvido tem como objetivo a avaliação de desempenho de políticas de escalonamento convencionais e específicas para Simulação Distribuída (SD), apresentando uma comparação do desempenho destas duas abordagens. Análises das pesquisas feitas na área mostram que não existe avaliação semelhante. Assim, este trabalho tem a importante contribuição de demonstrar as vantagens e desvantagens do uso de políticas tradicionais em relação às específicas em SD. Para execução das simulações foi utilizada a ferramenta Warped, que está descrita nesta dissertação. Foram desenvolvidas e implementadas novas técnicas de escalonamento que utilizam os resultados da simulação em execução, assim executam um melhor balanceamento de carga. Para o desenvolvimento deste projeto foi necessária uma revisão bibliográfica envolvendo conceitos de simulação distribuída com seus respectivos protocolos de sincronização, escalonamento de processos específicos para programas de SD e políticas tradicionais. Com este estudo soma-se como contribuição deste trabalho uma nova classificação das políticas específicas para SD que utilizam protocolo otimista / A bestter scheduling in distributed simulation is fundamental to a fast and efficient execution. The developed project has as objective the evaluation of performance of conventional and specific politics of scheduling for Distributed Simulation (DS), presenting a comparison of the performance of these two boardings. Analyses of the research done in the area show that similar evaluation does not exists. Thus, this work has the important contribution to demonstrate to the advantages and disadvantages of the use of traditional politics in relation to the specific ones in DS. For execution of the simulations the Warped tool was used, that is described in this work. They had been developed and implemented new techniques of scheduling that use the results of the simulation in execution, thus they execute one better load balancing. For the development of this project a bibliographical revision was necessary involving concepts of simulation distributed with its respective protocols of synchronization, traditional scheduling of specific processes for DS programs and politics. With this study a new classification of the specific politics for DS is added as contribution of this work that use optimistical protocol
77

Avaliação mista de aplicações do tipo Bag of Tasks sobre infraestruturas de nuvem física limitada e virtual escalada com a utilização do OpenStack e do CloudSim / Mixed evaluation of Bag of Tasks applications over limited physical and virtual scheduled cloud infrastructures with OpenStack and CloudSim Utilization

Angelin, Fernando 30 August 2017 (has links)
Submitted by Aline Batista (alinehb.ufpel@gmail.com) on 2018-04-19T13:23:06Z No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Dissertacao_Fernando_Angelin.pdf: 1204993 bytes, checksum: 3cf6b9f14201e8e7168987d5dfd7354b (MD5) / Approved for entry into archive by Aline Batista (alinehb.ufpel@gmail.com) on 2018-04-19T14:44:30Z (GMT) No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Dissertacao_Fernando_Angelin.pdf: 1204993 bytes, checksum: 3cf6b9f14201e8e7168987d5dfd7354b (MD5) / Made available in DSpace on 2018-04-19T14:44:39Z (GMT). No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Dissertacao_Fernando_Angelin.pdf: 1204993 bytes, checksum: 3cf6b9f14201e8e7168987d5dfd7354b (MD5) Previous issue date: 2017-08-30 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / A Computação em Nuvem vem apresentando um crescimento extraordinário nos últimos anos, em questão de quantidade e variedade de serviços oferecidos, estes, tomando uma forma onipresente no cotidiano. Com isso, usuários que necessitam, geralmente, de alta disponibilidade de processamento, buscam na Nuvem soluções que diminuam custos pontuais, como construção e manutenção de uma infraestrutura privada. A saída para tal é alugar infraestrutura em uma Nuvem ou até mesmo utilizar a Nuvem para dimensionar uma infraestrutura própria que supra sua demanda, sem sub ou superdimensionamento. Este trabalho apresenta um modelo de simulação mista, o qual busca comparar uma infraestrutura física limitada à uma infraestrutura virtual simulada com as mesmas características. Para isto, foram executados testes em uma infraestrutura física limitada e testes de simulação utilizando o CloudSim, escalando o tamanho das tarefas do tipo Bag of Tasks (BoT) e o número de hosts e núcleos computacionais. Para tais testes foram implementados algoritmos que realizam a transformação da entrada BoT para a execução na infraestrutura física e na simulada. Também, foram prototipadas classes para complementação do CloudSim, tanto para leitura dos BoTs transformados quanto para a criação da infraestrutura simulada.Com os testes realizados, notamos a estabilidade do sistema, quando simulados testes com BoT pequenos, médios e grandes em infraestruturas que, para nosso caso, foram classificadas como pequena, média e grande. Outra observação importante realizada foi a de que quando a infraestrutura oferece carga externa à execução desejada (utilização por outro usuário, por exemplo), o tempo final de execução dos BoTs aumenta proporcionalmente à quanto a infraestrutura está em utilização. Também percebemos que a granularidade das tarefas impacta na execução. Com relação à escalabilidade, foi percebido que BoTs classificados como grandes para infraestruturas categorizadas como pequenas foram agrupados como pequenos para infraestruturas identificadas como grandes. / Cloud Computing has been showing extraordinary growth in recent years, in terms of the quantity and variety of services offered, these, taking a ubiquitous form in everyday life. As a result, users who generally require high availability of processing, search on cloud solutions that reduce specific costs, such as building and maintaining a private infrastructure. The way out is to rent infrastructure in a Cloud or even use the Cloud to size an infrastructure that suits your demand, without sub or oversize. This dissertation presents a mixed simulation model, which seeks to compare a limited physical infrastructure to a simulated virtual infrastructure with the same characteristics. For this, tests were performed on a limited physical infrastructure and simulation tests using CloudSim, scaling the size of Bag of Tasks (BoT) tasks and the number of hosts and processing cores. For such tests, were implemented algorithms that perform the transformation of the BoT input for execution in real infrastructure and simulation. Also, classes to complement CloudSim were prototyped, both for reading the transformed BoTs and for creating the simulated infrastructure. With the tests carried out, we noticed the stability of the system when simulated small, medium and large BoT tests in infrastructures that, in our case, were classified as small, medium and large. Another important observation was that when the infrastructure offers external load to the desired execution (use by another user, for example), the final execution time of the BoTs increases proportionally to how much the infrastructure is in use. We also realize that the granularity of tasks impacts execution. With regard to scalability, it was noticed that BoTs classified as large for infrastructures categorized as small were grouped as small for infrastructures identified as large.
78

Análise de algoritmos distribuídos para escalonamento em Data Grids / Analysis of distributed algorithms for scheduling in Data Grids

Gustavo Vilaça Lourenço 18 April 2012 (has links)
É um resultado conhecido que em Data Grids, onde o processamento envolve grandes quantidades de dados, pode ser mais eficaz escalonar os processos para execução nos sites que já dispõem dos dados do que transferir os dados para um site onde o processo que irá necessitar deles foi escalonado. Os estudos existentes se baseiam em pequenas quantidades de sites, com conhecimento centralizado sobre o estado dos diversos sites. Essa opção não é escalável para Grids com grande número de participantes. Este trabalho analisa versões distribuídas com informação local para os algoritmos de escalonamento de processo e replicação de dados, mostrando o efeito das topologias de interconexão de sites no desempenho desses. É observado que, considerando a existência apenas de informações locais devido às restrições topologicas, resultados diferentes quanto aos melhores algoritmos de escalonamento de processos e replicação de dados são encontrados. / It is a known result that in Data Grids, where the processing involves large amounts of data, can be more effective schedule processes to run on sites that already have the data than transfering data to a site where the process that will require them was installed. The existing studies are based on small numbers of sites, with centralized knowledge about the state of the various sites. This option is not scalable for grids with large numbers of participants. This paper will propose distributed versions with local information for process scheduling algorithms and data replication, showing the effect of interconnect topologies on the performance of these sites. It is observed that, considering the existence of only local information due to topological constraints, different results related to the best scheduling algorithms and data replication processes are found.
79

Desenvolvimento de um ambiente de computação voluntária baseado em computação ponto-a-ponto / Development of an volunteer computing environment based in peer-to-peer computing

Caio Rafael do Nascimento Santiago 13 March 2015 (has links)
As necessidades computacionais de experimentos científicos muitas vezes exigem computadores potentes. Uma forma alternativa de obter esse processamento é aproveitar o processamento ocioso de computadores pessoais de modo voluntário. Essa técnica é conhecida como computação voluntária e possui grande potencial na ajuda aos cientistas. No entanto existem diversos fatores que podem reduzir sua eficiência quando aplicada a experimentos científicos complexos, por exemplo, aqueles que envolvem processamento de longa duração, uso de dados de entrada ou saída muito grandes, etc. Na tentativa de solucionar alguns desses problemas surgiram abordagens que aplicam conceitos de computação ponto-a-ponto. Neste projeto foram especificados, desenvolvidos e testados um ambiente e um escalonador de atividades que aplicam conceitos de computação ponto-a-ponto à execução de workflows com computação voluntária. Quando comparado com a execução local de atividades e com a computação voluntária tradicional houve melhoras em relação ao tempo de execução (até 22% de redução quando comparada com a computação voluntária tradicional nos testes mais complexos) e em alguns casos também houve uma redução no consumo de banda de upload do servidor de até 62%. / The computational needs of scientific experiments often require powerful computers. One alternative way to obtain this processing power is taking advantage of the idle processing of personal computers as volunteers. This technique is known as volunteer computing and has great potential in helping scientists. However, there are several issues which can reduce the efficiency of this approach when applied to complex scientific experiments, such as, the ones with long processing time, very large input or output data, etc. In an attempt to solve these problems some approaches based on P2P concepts arisen. In this project a workflow execution environment and a scheduler of activities were specified, developed and tested applying P2P concepts in the workflows execution using volunteer computing. When compared with the local execution of activities and traditional volunteer computing was the execution time was improved (until 22% of reduction when compared with the traditional volunteer computing in the most complex tests) and in some cases there was also a reduction of the server upload bandwidth use of until 62%.
80

Informações de suporte ao escalonamento de workflows científicos para a execução em plataformas de computação em nuvem / Support information to scientific workflow scheduling for execution in cloud computing platforms

Eduardo Cotrin Teixeira 26 April 2016 (has links)
A ciência tem feito uso frequente de recursos computacionais para execução de experimentos e processos científicos, que podem ser modelados como workflows que manipulam grandes volumes de dados e executam ações como seleção, análise e visualização desses dados segundo um procedimento determinado. Workflows científicos têm sido usados por cientistas de várias áreas, como astronomia e bioinformática, e tendem a ser computacionalmente intensivos e fortemente voltados à manipulação de grandes volumes de dados, o que requer o uso de plataformas de execução de alto desempenho como grades ou nuvens de computadores. Para execução dos workflows nesse tipo de plataforma é necessário o mapeamento dos recursos computacionais disponíveis para as atividades do workflow, processo conhecido como escalonamento. Plataformas de computação em nuvem têm se mostrado um alternativa viável para a execução de workflows científicos, mas o escalonamento nesse tipo de plataforma geralmente deve considerar restrições específicas como orçamento limitado ou o tipo de recurso computacional a ser utilizado na execução. Nesse contexto, informações como a duração estimada da execução ou limites de tempo e de custo (chamadas aqui de informações de suporte ao escalonamento) são importantes para garantir que o escalonamento seja eficiente e a execução ocorra de forma a atingir os resultados esperados. Este trabalho identifica as informações de suporte que podem ser adicionadas aos modelos de workflows científicos para amparar o escalonamento e a execução eficiente em plataformas de computação em nuvem. É proposta uma classificação dessas informações, e seu uso nos principais Sistemas Gerenciadores de Workflows Científicos (SGWC) é analisado. Para avaliar o impacto do uso das informações no escalonamento foram realizados experimentos utilizando modelos de workflows científicos com diferentes informações de suporte, escalonados com algoritmos que foram adaptados para considerar as informações inseridas. Nos experimentos realizados, observou-se uma redução no custo financeiro de execução do workflow em nuvem de até 59% e redução no makespan chegando a 8,6% se comparados à execução dos mesmos workflows sendo escalonados sem nenhuma informação de suporte disponível. / Science has been using computing resources to perform scientific processes and experiments that can be modeled as workflows handling large data volumes and performing actions such as selection, analysis and visualization of these data according to a specific procedure. Scientific workflows have been used by scientists from many areas, such as astronomy and bioinformatics, and tend to be computationally intensive and heavily focused on handling large data volumes, which requires using high-performance computing platforms such as grids or clouds. For workflow execution in these platforms it is necessary to assign the workflow activities to the available computational resources, a process known as scheduling. Cloud computing platforms have proved to be a viable alternative for scientific workflows execution, but scheduling in cloud must take into account specific constraints such as limited budget or the type of computing resources to be used in execution. In this context, information such as the estimated duration of execution, or time and cost limits (here this information is generally referred to as scheduling support information) become important for efficient scheduling and execution, aiming to achieve the expected results. This work identifies support information that can be added to scientific workflow models to support efficient scheduling and execution in cloud computing platforms. We propose and analyze a classification of such information and its use in Scientific Workflows Management Systems (SWMS). To assess the impact of support information on scheduling, experiments were conducted with scientific workflow models using different support information, scheduled with algorithms that were adapted to consider the added information. The experiments have shown a reduction of up to 59% on the financial cost of workflow execution in the cloud, and a reduction reaching 8,6% on the makespan if compared to workflow execution scheduled without any available supporting information.

Page generated in 0.0582 seconds