• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 369
  • 356
  • 40
  • 34
  • 34
  • 32
  • 30
  • 28
  • 8
  • 7
  • 6
  • 4
  • 4
  • 3
  • 2
  • Tagged with
  • 1072
  • 1072
  • 331
  • 274
  • 193
  • 134
  • 117
  • 97
  • 92
  • 91
  • 77
  • 74
  • 72
  • 72
  • 65
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
321

Outsourcing (In)Equity: Do Informal Government-Nonprofit Collaborations Lead to Inequitable Government Service?

Fiocco, Emily 06 September 2017 (has links)
Local governments often rely on collaborations with nonprofit organizations to serve “underheard” communities. These collaborations are often resource-intensive, but not well-analyzed. I engage a case study of City of Eugene's efforts to create "Welcoming Parks" for its Latino community to analyze the effects of these collaborations on the equity of government services and policy outcomes. My analysis is based on qualitative analysis of interviews and observations conducted with government staff, nonprofit leaders, community advocates, and community members. It demonstrates that local governments' reliance on nonprofit collaborations to address the needs of their “underheard" communities can lead to inequitable service and policy outcomes. Rather, representation of “underheard” communities within government may be necessary to produce outcomes. This research paves the way for further empirical studies of informal government-nonprofit collaborations and provides suggestions regarding how local governments should work with their communities to achieve equitable service and policy outcomes.
322

Modification of a Moving Bed Biofilm Reactor(MBBR) due to radically changed process conditions : A case study of Kvarnsveden paper mill

Johansson Macedo, Liv May January 2018 (has links)
Papermaking process require large amounts of energy and water; therefore, pulp and paper mills can be potentially very polluting. The wastewater resulting from the papermaking process must be carefully managed as it is very rich in dissolved organic matter and contain compounds that make it difficult to treat. MBBR technology emerged as a possibility to increase the treatment capacity and to make more compact treatment systems designed to remove high organic loads, since in addition to having biomass in suspension as the activated sludge process, also has biomass adhered to plastic supports. This research was commissioned by Stora Enso Kvarnsveden and emerged in need of a bioreactor modification due to reduction of the wastewater load after the closure of PM11 in 2013 and PM8 in 2017. An evaluation of the performance of bioreactors is necessary with possible results to only run one bioreactor in the future and save energy. For performance analysis, two weeks of measurements were performed, one with the two bioreactors running at the same time and one with only K150 reactor running, trying to simulate what happens if one of them is stopped. Analysis of the main operating parameters of the MBBR system were evaluated during this research. As result, it was recommended an action to remove the excess of adhered biomass and an increase of the filling rating to 50%, in order to optimize TOC reduction.
323

CERTIFICAÇÃO E AVALIAÇÃO DE DESEMPENHO DE DIRETORES ESCOLARES NA BAHIA: IMPLEMENTAÇÃO POLÍTICA E A VISÃO DOS SUJEITOS AVALIADOS

Damasceno, Edilene Pinheiro 25 July 2009 (has links)
Made available in DSpace on 2016-08-03T16:16:13Z (GMT). No. of bitstreams: 1 Edilene P Damasceno.pdf: 723778 bytes, checksum: 0280e63cb9a10853ea6a4530b72c6d43 (MD5) Previous issue date: 2009-07-25 / This work analyses the implementation process of the occupational certification policies (by competence) and of performance evaluation (in practice) of school directors, inside the state of Bahia s schooling network. It also intends to gauge the view that the studied subjects have over those policies. The certification and performance evaluation of school directors policies are part of the Educar para Vencer Program, elaborated in 1999, during the César Borges government, according to the managing reform of the state public administration that had been planned since the government of Antônio Carlos Magalhães (1991-1993) and to the managing administrative reform in Brazil, brought about from 1995 on, during Fernando Henrique Cardoso s presidential mandate. In order to develop our analysis we firstly approached the changes that happened in the work world, starting in the 1970 s and its influences over the professional graduation and certification process (based on competences). Next, we discussed the logic that guides the evaluation of elementary school professionals in Brazil. In the methodological process, besides the bibliographic research, we used the documentary research and the empiric research. The empiric research had as target school directors from the state educational network in the municipality of Salvador. With this study, we could attest that the school directors evaluation policies adopted in Bahia s school network assume a ruling character of those professionals work, based on personal merit. The interviewed directors present a wrong and contradictory vision in relation to the logic that rules those policies.(AU) / Este trabalho analisa o processo de implementação das políticas de certificação ocupacional (de competências) e de avaliação de desempenho (em serviço) de dirigentes escolares, na rede estadual de ensino da Bahia. Busca também aferir a visão que os sujeitos avaliados têm sobre essas políticas. As políticas de certificação e de avaliação de desempenho de dirigentes escolares integraram o Programa Educar para Vencer, formulado em 1999, no Governo de César Borges, em consonância com a reforma gerencialista da administração pública estadual que já vinha sendo planejada, desde a gestão do Governador Antônio Carlos Magalhães (1991-1993) e com a reforma administrativa gerencialista do Estado brasileiro realizada a partir de 1995, durante a presidência de Fernando Henrique Cardoso. Para desenvolver nossa análise, abordamos inicialmente as mudanças ocorridas no mundo do trabalho, a partir da década de 1970 e suas influências nos processos de formação e certificação profissional (baseados em competências). Em seguida, discutimos sobre a lógica que vem norteando a avaliação de profissionais da educação básica no Brasil. No percurso metodológico, além da pesquisa bibliográfica, utilizamos a pesquisa documental e a pesquisa empírica. A pesquisa empírica teve como público-alvo dez diretores escolares da rede estadual de ensino do município de Salvador. Com o estudo realizado, pudemos evidenciar que as políticas de avaliação de dirigentes escolares implantadas na rede estadual de ensino baiana assumem um caráter regulatório do trabalho desses profissionais, com base no mérito individual. Os diretores entrevistados apresentam uma visão equivocada e contraditória com relação à lógica que permeia essas políticas.(AU)
324

Leveraging relations among objects to improve the performance of information-centric networks / Utilizando relações entre objetos para melhorar o desempenho de redes orientadas a conteúdo

Antunes, Rodolfo Stoffel January 2016 (has links)
Redes Orientadas a Conteúdo (Information-Centric Networks, ICN) são um novo paradigma de comunicação criado para aproximar as infraestruturas de rede às necessidades de sistemas de distribuição de conteúdo. ICN utiliza mecanismos de roteamento e cache projetados para atender requisições por objetos de dados unicamente identificados e desassociados de um localizador fixo. Até o momento, pesquisas sobre ICN focaram principalmente na avaliação de aspectos arquiteturais, tais como o desempenho de diferentes esquemas de roteamento e cache. Entretanto, o método aplicado para distribuir dados utilizando o conceito de objetos também pode impactar a comunicação em uma ICN. Esta tese explora um modelo que permite a distribuição de um conteúdo através de múltiplos objetos de dados. Emprega-se o conceito de relações, definidas como elos entre dois objetos indicando que os dados de um complementam de alguma forma os dados do outro. Tal modelo baseado em relações permite que clientes identifiquem e recuperem os objetos necessários para a reconstrução do conteúdo. Ele é agnóstico ao formato de dados das aplicações, suporta diferentes estruturas de relações e é retrocompatível com especificações atuais de arquiteturas ICN. Também discute-se os principais aspectos de projeto relativos à implementação do modelo na arquitetura NDN. Para avaliar o impacto de relações no desempenho da rede e aplicações, foi realizada uma série de experimentos com dois estudos de caso baseados em cenários relevantes da Internet atual, sendo eles: conteúdo multimídia e páginasWeb. O estudo de caso sobre conteúdo multimídia explora um cenário favorável, no qual relações apresentam uma sobrecarga negligível em contraste ao grande volume de dados dos conteúdos. Os resultados deste estudo de caso mostram que, em comparação com a implementação padrão do NDN, o uso de relações pode reduzir os tempos de download em 34% e o tráfego de rede em 43%. Por sua vez, o estudo de caso sobre páginasWeb explora um cenário no qual relações geram um impacto não negligível na rede e aplicações. A análise deste cenário mostra que, mesmo com a sobrecarga adicional gerada pelas relações, o mecanismo pode reduzir, em média, o tempo de download dos clientes em 28% e o tráfego de rede em 34%. / Information-Centric Networking (ICN) is a communication paradigm created to align the network infrastructures to the needs of content distribution systems. ICN employs routing and caching mechanisms tailored to fulfill requests for uniquely identified data objects not associated to a fixed locator. So far, research about ICN focused primarily on evaluating architectural aspects, such as the performance of di erent routing and caching schemes. However, the method applied to distribute data using the concept of objects can also impact communications in an ICN. In this thesis, we explore a model that enables the distribution of contents as multiple data objects. We employ the concept of relations, defined as links between two objects indicating that the data from one complements in some way the data from the other. Our model based on relations enables clients to identify and retrieve the data pieces required to reconstruct a content. It is application agnostic, supports di erent relation structures, and is backward-compatible with current ICN specifications. We also discuss the main design aspects related to the implementation of the model in the Named Data Networking (NDN) architecture. To evaluate how relations impact network and application performance, we perform a series of experiments with two case studies based on relevant scenarios from the current Internet, namely: multimedia content and Web pages. The multimedia case study explores a favorable scenario in which relations present a negligible overhead in contrast to the high volume of content data. Results from this case study show that, compared to the standard NDN implementation, relations can reduce download times by 34% and network tra c by 43%. In turn, the Web pages case study explores a scenario in which relations generate a non-negligible impact on the network and applications. The analysis of this scenario shows that, even with the additional overhead incurred by relations, the mechanism can reduce on average 28% client download time, and 34%, global network tra c.
325

Análise de parâmetros de desempenho em pólo aquático : agilidade e potência

Castro, Camila Dias de January 2014 (has links)
A potência dos membros inferiores e superiores e a agilidade parecem ser parâmetros de avaliação física e técnica associadas com o desempenho no polo aquático (PAq). O objetivo deste estudo foi verificar como são as relações entre parâmetros que podem influenciar o desempenho no polo aquático, em jogadores de diferentes categorias (idade, experiência e nível de desempenho). Participaram 63 jogadores de PAq, do sexo masculino, que realizaram três testes: altura do salto vertical na água (absoluta – AAbs e relativa à estatuta - ARel), velocidade da bola após o arremesso (Vel) e agilidade (Agil). Resultados: 137,5 ± 1,7 cm para AAbs, 76 ± 1 % para ARel, 64,1 ± 0,66 km.h-1 para Vel e 3,83 ± 0,05 s para Agil. Considerando as comparações e correlações, nenhum padrão de resultado foi encontrado entre as diferentes categorias, no entanto tratando-se de resultados esportivos, poucos centímetros ou décimos de segundos, mesmo sem diferença estatística, são determinantes para vencer uma partida. Desta forma, pode ser observado que a AAbs e ARel foram maiores em atletas mais experientes e com maior faixa etária; a Vel também é maior em atletas mais experientes, no entanto pode sofrer influência negativa a partir de determinada faixa etária; a agilidade parece sofrer maior influência dos anos de experiência. Avaliando os resultados conclui-se que a altura do salto vertical pode estar mais relacionada com o aprendizado da técnica, já a velocidade com a potência como variável física e a agilidade ser fruto da adaptação à atividade. / The lower and upper limbs’ power and agility seem to be physical and technical parameters associated with performance on the water polo (PAq). The aim of this study was to investigate how these parameters are associated in PAq players of different categories (experience, age and performance level). Ball speed after the shot (Vel), agility (Agil) and vertical jump height in water (absolute – AAbs - and relative to the stature - ARel) were assessed. Sixty-three male PAq players underwent three tests. Results: 137.5 ± 1.7 cm for AABS, 76 ± 1% for ARel, 64.1 ± 0.66 km h-1 for Vel, and 3.83 ± 0.05 s for Agil. Considering the tested comparisons and correlations, no pattern of results was found among the different categories, however in the case of sports scores, few centimeters or deciseconds, even without statistical differences, are crucial to winning a match. Thus, it can be seen that the AAbs and Arel were higher in athletes more experienced and older age; the Vel is also higher in more experienced athletes, however it may suffer negative influence from a certain age group; and agility is more strongly influenced the years of experience. Evaluating the results, it is concluded that height of vertical jump can be most related to learning technique, however the speed with power as physical variable and agility be the result of adaptation to activity.
326

Identificação e discussão dos mecanismos de degradação de pavimentos com revestimento primário / Identification and discussion on distress mechanisms of unsurfaced gravel roads

Nervis, Leandro Olivio January 2016 (has links)
As rodovias com revestimento primário constituem a imensa maioria da extensão da malha viária do Brasil e de muitos países. Sua manutenção em um nível mínimo aceitável de serventia consome parcelas importantes de orçamentos governamentais. Contudo, na maioria das vezes, as atividades de implantação e manutenção têm escasso sucesso, porque os agentes encarregados desconhecem a tecnologia específica. Visando contribuir para práticas mais efetivas, esta tese analisa os resultados de uma pesquisa realizada com o objetivo de identificar e discutir os mecanismos de degradação de rodovias com revestimento primário, à luz das Mecânicas dos Solos e dos Pavimentos. O projeto experimental incluiu ensaios laboratoriais, bem como a construção e monitoramento de desempenho, ao longo de 30 meses, de um pavimento experimental, em projeto de assentamento da Reforma Agrária, no Rio Grande do Sul. O revestimento primário foi construído em duas camadas (a superior constituída por 7 cm de saibro e a inferior por 17 cm de argila laterítica) assentes sobre um subleito estratificado, com camada superior arenosa. As formações geológicas são constituídas por depósitos aluvionares (subleito) e por siltito (jazida de argila) e gnaisse (jazida do saibro). A compactação das camadas foi verificada por meio de ensaios clássicos e com emprego do cone de penetração dinâmica (DCP). As deflexões foram medidas no topo do subleito e sobre cada camada de revestimento, com utilização de viga Benkelman. Amostras deformadas dos materiais do revestimento primário e da camada superior do subleito foram coletadas. Em laboratório realizaram-se ensaios de caracterização, bem como da classificação MCT; foram avaliadas a resistência ao desgaste e a durabilidade da fração graúda do saibro (abrasão Los Angeles e alteração de rochas água-estufa). Realizaram-se ensaios de compactação, Índice de Suporte Califórnia, Inderbitzen (erodibilidade), cisalhamento direto e triaxiais de carga repetida, para obtenção de módulos de resiliência e avaliação do comportamento quanto à deformação permanente. Complementarmente, foram obtidas curvas de retenção de água. Com base nos resultados laboratoriais foram realizadas previsões de desempenho do pavimento experimental, fundamentadas em conceitos, prescrições e em modelos matemáticos e estatísticos encontrados na literatura e no emprego do programa HDM 4. Durante o período de monitoramento do pavimento experimental foram realizados 3 levantamentos para a obtenção da Irregularidade Longitudinal (IRI), com o emprego de um perfilômetro inercial e 4 inspeções para a avaliação da evolução dos principais defeitos típicos de pavimento com revestimento primário. Os defeitos observados foram: afundamento de trilha de roda, buracos, perda de abaulamento, perda de espessura de revestimento e sulcos de erosão; identificando-se e discutindo-se os mecanismos de degradação a eles associados. Também foram comparadas as previsões de desempenho com a evolução da serventia do pavimento experimental, constatando-se que os modelos apresentados na literatura internacional nem sempre apresentam acurácia satisfatória. Isto mostra a necessidade de se desenvolverem novos modelos e calibrar os existentes, como condição indispensável para otimizar as atividades de manutenção das rodovias com revestimento primário. / Most of Brazilian and other countries’ roads networks mainly comprise unsurfaced gravel roads. The maintenance of such roads at a minimum acceptable level of serviceability consumes large percentages of governs budgets. In spite of that, the construction and maintenance activities are scarcely well-succeeded, since the personnel involved do not know the specific technology. Aiming at contributing for more effective practices, this thesis analyses the results of a research carried out with the objective of identifying and discussing distress mechanisms of unsurfaced gravel roads, based on Soil and Pavement Mechanics. Experimental procedures included laboratory tests, as well as the construction and performance monitoring, along 30 months, of a test section, in an agrarian reform settlement, in Rio Grande do Sul state, southern Brazil. The wearing course of the unsurfaced pavement consisted of two different layers (a 7-cm-thick upper layer, made of genuine residual soil and a lower one with 17 cm of lateritic clay), built over a stratified subgrade, with a sandy upper layer. Geological formations consisted of alluvial fans (the subgrade), siltstone (the clay site) and gneiss (genuine residual soil site). Layers compaction was quantified by means of classic tests and also using the dynamic cone penetrometer (DCP). Using a Benkelman beam, surface deflections were measured on the top of the subgrade and every layer. Samples were taken from the subgrade and from both materials that constitute the wearing course, in order to perform laboratory tests of characterization and those of a Brazilian soils classification system, known as MCT (miniature, compacted, tropical). Los Angeles abrasion and rock alteration by wetting and drying tests were done on samples of the genuine residual soil coarse fraction. Every material was subjected to compaction, CBR, Inderbitzen (erodibility), direct shear and repeated loading triaxial tests (these latter to compute resilient moduli and to evaluate the permanent deformation behaviour). Besides, water-retention curves were obtained. Based on laboratory results, the performance of the experimental pavement was predicted, founded on concepts, materials prescriptions and mathematical and statistical models and using HDM 4 program. During the monitoring period three roughness (IRI) surveys were carried out, using an inertial profilometer. Four distresses surveys were carried out to evaluate the evolution of the most important distresses typical of unsurfaced gravel roads. Distresses as rutting, potholes, cross-section deformation and thickness reduction and erosion channels were observed and the associated distress mechanisms were discussed. Pavement performance predictions were compared to the measured serviceability evolution. It was found out that the models available in the literature not always yield accurate results. Because of that, developing new models and calibrating the existing ones is mandatory to optimize maintenance activities in unsurfaced gravel roads.
327

Estudo de layout e avaliação de desempenho na área hospitalar

Benitez, Guilherme Brittes January 2017 (has links)
Esta dissertação apresenta o uso de técnicas para o estudo de layout e avaliação de desempenho do setor de radiologia de um hospital universitário. A dissertação foi elaborada em formato de três artigos científicos, cujos temas e objetivos são: (i) aplicar a análise de conglomerados como etapa preliminar do planejamento sistemático de layout (Systematic Layout Planning – SLP) para planejar o layout do setor de radiologia de um hospital universitário; (ii) realizar uma revisão sistemática das técnicas e conceitos adotados para planejar layouts em ambientes hospitalares; e (iii) usar cartas de controle para avaliar o desempenho dos médicos do setor de radiologia de um hospital universitário. Os métodos desenvolvidos para os itens (i) e (iii) foram avaliados através da aplicação de estudos de caso, em exemplos com dados reais. Os métodos propostos para o item (i) foram adaptados especificamente para este caso. Para o item (ii) a metodologia proposta foi de pesquisa exploratória e descritiva, buscando referências na literatura para estudar e discorrer acerca do tema. Para o item (iii), o método foi implementado na prática em um ambiente onde existem apenas estudos de caráter conceitual. Os métodos apresentaram resultados satisfatórios em todos os casos. No primeiro artigo, chegou-se a um layout considerado ideal, separando zonas de ruído e de silêncio, e potencialmente melhorando a produtividade do setor de radiologia. Já no segundo artigo, conceitos, premissas e técnicas sobre o planejamento de layout em hospitais foram apresentados e difundidos, e lacunas e direcionamentos da pesquisa foram apontados. No terceiro artigo, foi possível avaliar o desempenho dos radiologistas através das cartas de controle e calcular a capacidade do processo usando os índices Cp e Cpk. / This study presents the use of techniques for the layout study and performance evaluation in a radiology sector of an university hospital. The study was performed in the form of three scientific articles, whose themes and objectives are: (i) to apply clustering analisys as the preliminary step of Systematic Layout Planning (SLP) to plan the layout of the radiology sector of a universitary hospital; (ii) to carry out a systematic review of the techniques and concepts adopted to plan layouts in hospital settings; and (iii) to use control charts to evaluate the performance of radiologists in a university hospital. The methods developed for items (i) and (iii) were evaluated through the application of case studies in examples with real data. The proposed methods for item (i) were adapted specifically for this case. For item (ii), the methodology proposed was exploratory and descriptive, seeking references in the literature to study and discuss the subject. For item (iii), the method was performed in a case study in an environment where there are only conceptual studies. The methods presented satisfactory results in all cases. In the first article, we reached an ideal layout, separating zones by noise and silence, and potentially improving the productivity of the radiology sector. In the second article, concepts, premises and techniques about layout planning in healthcare were presented and disseminated, gaps and directions of the research were pointed out. In the third article, it was possible to evaluate the performance of the radiologists through the control charts and to calculate the capacity of the process using the indexes Cp and Cpk.
328

Evaluating quality of experience and real-time performance of industrial internet of things

Zhohov, Roman January 2018 (has links)
The Industrial Internet of Things (IIoT) is one of the key technologies of Industry 4.0 thatwill be an integral part of future smart and sustainable production. The current constitutedmodels for estimating Quality of Experience (QoE) are mainly targeting the multimediasystems. Present models for evaluating QoE, specifically leveraged by the expensivesubjective tests, are not applicable for IIoT applications. This work triggers the discussionon defining the QoE domain for IIoT services and applications. Industry-specific KPIs areproposed to assure QoE by linking business and technology domains. Tele-remote miningmachines are considered as a case study for developing the QoE model by taking intoaccount key challenges in QoE domain. As a result, QoE layered model is proposed, whichas an outcome predicts the QoE of IIoT services and applications in a form of pre-definedIndustrial KPIs. Moreover, software tool and analytical model is proposed to be used as anevaluation method for certain traffic types in the developed model.
329

Source code optimizations to reduce multi core and many core performance bottlenecks / Otimizações de código fonte para reduzir gargalos de desempenho em multi core e many core

Serpa, Matheus da Silva January 2018 (has links)
Atualmente, existe uma variedade de arquiteturas disponíveis não apenas para a indústria, mas também para consumidores finais. Processadores multi-core tradicionais, GPUs, aceleradores, como o Xeon Phi, ou até mesmo processadores orientados para eficiência energética, como a família ARM, apresentam características arquiteturais muito diferentes. Essa ampla gama de características representa um desafio para os desenvolvedores de aplicações. Os desenvolvedores devem lidar com diferentes conjuntos de instruções, hierarquias de memória, ou até mesmo diferentes paradigmas de programação ao programar para essas arquiteturas. Para otimizar uma aplicação, é importante ter uma compreensão profunda de como ela se comporta em diferentes arquiteturas. Os trabalhos relacionados provaram ter uma ampla variedade de soluções. A maioria deles se concentrou em melhorar apenas o desempenho da memória. Outros se concentram no balanceamento de carga, na vetorização e no mapeamento de threads e dados, mas os realizam separadamente, perdendo oportunidades de otimização. Nesta dissertação de mestrado, foram propostas várias técnicas de otimização para melhorar o desempenho de uma aplicação de exploração sísmica real fornecida pela Petrobras, uma empresa multinacional do setor de petróleo. Os experimentos mostram que loop interchange é uma técnica útil para melhorar o desempenho de diferentes níveis de memória cache, melhorando o desempenho em até 5,3 e 3,9 nas arquiteturas Intel Broadwell e Intel Knights Landing, respectivamente. Ao alterar o código para ativar a vetorização, o desempenho foi aumentado em até 1,4 e 6,5 . O balanceamento de carga melhorou o desempenho em até 1,1 no Knights Landing. Técnicas de mapeamento de threads e dados também foram avaliadas, com uma melhora de desempenho de até 1,6 e 4,4 . O ganho de desempenho do Broadwell foi de 22,7 e do Knights Landing de 56,7 em comparação com uma versão sem otimizações, mas, no final, o Broadwell foi 1,2 mais rápido que o Knights Landing. / Nowadays, there are several different architectures available not only for the industry but also for final consumers. Traditional multi-core processors, GPUs, accelerators such as the Xeon Phi, or even energy efficiency-driven processors such as the ARM family, present very different architectural characteristics. This wide range of characteristics presents a challenge for the developers of applications. Developers must deal with different instruction sets, memory hierarchies, or even different programming paradigms when programming for these architectures. To optimize an application, it is important to have a deep understanding of how it behaves on different architectures. Related work proved to have a wide variety of solutions. Most of then focused on improving only memory performance. Others focus on load balancing, vectorization, and thread and data mapping, but perform them separately, losing optimization opportunities. In this master thesis, we propose several optimization techniques to improve the performance of a real-world seismic exploration application provided by Petrobras, a multinational corporation in the petroleum industry. In our experiments, we show that loop interchange is a useful technique to improve the performance of different cache memory levels, improving the performance by up to 5.3 and 3.9 on the Intel Broadwell and Intel Knights Landing architectures, respectively. By changing the code to enable vectorization, performance was increased by up to 1.4 and 6.5 . Load Balancing improved the performance by up to 1.1 on Knights Landing. Thread and data mapping techniques were also evaluated, with a performance improvement of up to 1.6 and 4.4 . We also compared the best version of each architecture and showed that we were able to improve the performance of Broadwell by 22.7 and Knights Landing by 56.7 compared to a naive version, but, in the end, Broadwell was 1.2 faster than Knights Landing.
330

Performance modeling of MapReduce applications for the cloud / Modelagem de desempenho de aplicações mapreduce para a núvem

Izurieta, Iván Carrera January 2014 (has links)
Nos últimos anos, Cloud Computing tem se tornado uma tecnologia importante que possibilitou executar aplicações sem a necessidade de implementar uma infraestrutura física com a vantagem de reduzir os custos ao usuário cobrando somente pelos recursos computacionais utilizados pela aplicação. O desafio com a implementação de aplicações distribuídas em ambientes de Cloud Computing é o planejamento da infraestrutura de máquinas virtuais visando otimizar o tempo de execução e o custo da implementação. Assim mesmo, nos últimos anos temos visto como a quantidade de dados produzida pelas aplicações cresceu mais que nunca. Estes dados contêm informação valiosa que deve ser obtida utilizando ferramentas como MapReduce. MapReduce é um importante framework para análise de grandes quantidades de dados desde que foi proposto pela Google, e disponibilizado Open Source pela Apache com a sua implementação Hadoop. O objetivo deste trabalho é apresentar que é possível predizer o tempo de execução de uma aplicação distribuída, a saber, uma aplicação MapReduce, na infraestrutura de Cloud Computing, utilizando um modelo matemático baseado em especificações teóricas. Após medir o tempo levado na execução da aplicação e variando os parámetros indicados no modelo matemático, e, após utilizar uma técnica de regressão linear, o objetivo é atingido encontrando um modelo do tempo de execução que foi posteriormente aplicado para predizer o tempo de execução de aplicações MapReduce com resultados satisfatórios. Os experimentos foram realizados em diferentes configurações: a saber, executando diferentes aplicações MapReduce em clusters privados e públicos, bem como em infraestruturas de Cloud comercial, e variando o número de nós que compõem o cluster, e o tamanho do workload dado à aplicação. Os experimentos mostraram uma clara relação com o modelo teórico, indicando que o modelo é, de fato, capaz de predizer o tempo de execução de aplicações MapReduce. O modelo desenvolvido é genérico, o que quer dizer que utiliza abstrações teóricas para a capacidade computacional do ambiente e o custo computacional da aplicação MapReduce. Motiva-se a desenvolver trabalhos futuros para estender esta abordagem para atingir outro tipo de aplicações distribuídas, e também incluir o modelo matemático deste trabalho dentro de serviços na núvem que ofereçam plataformas MapReduce, a fim de ajudar os usuários a planejar suas implementações. / In the last years, Cloud Computing has become a key technology that made possible running applications without needing to deploy a physical infrastructure with the advantage of lowering costs to the user by charging only for the computational resources used by the application. The challenge with deploying distributed applications in Cloud Computing environments is that the virtual machine infrastructure should be planned in a way that is time and cost-effective. Also, in the last years we have seen how the amount of data produced by applications has grown bigger than ever. This data contains valuable information that has to be extracted using tools like MapReduce. MapReduce is an important framework to analyze large amounts of data since it was proposed by Google, and made open source by Apache with its Hadoop implementation. The goal of this work is to show that the execution time of a distributed application, namely, a MapReduce application, in a Cloud computing environment, can be predicted using a mathematical model based on theoretical specifications. This prediction is made to help the users of the Cloud Computing environment to plan their deployments, i.e., quantify the number of virtual machines and its characteristics in order to have a lesser cost and/or time. After measuring the application execution time and varying parameters stated in the mathematical model, and after that, using a linear regression technique, the goal is achieved finding a model of the execution time which was then applied to predict the execution time of MapReduce applications with satisfying results. The experiments were conducted in several configurations: namely, private and public clusters, as well as commercial cloud infrastructures, running different MapReduce applications, and varying the number of nodes composing the cluster, as well as the amount of workload given to the application. Experiments showed a clear relation with the theoretical model, revealing that the model is in fact able to predict the execution time of MapReduce applications. The developed model is generic, meaning that it uses theoretical abstractions for the computing capacity of the environment and the computing cost of the MapReduce application. Further work in extending this approach to fit other types of distributed applications is encouraged, as well as including this mathematical model into Cloud services offering MapReduce platforms, in order to aid users plan their deployments.

Page generated in 0.0971 seconds