Spelling suggestions: "subject:"(computação)"" "subject:"(omputação)""
191 |
Um modelo de rastreabilidade na industrialização de produtos derivados de suínosBassani, Clausa Teresinha January 2002 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação. / Made available in DSpace on 2012-10-20T06:56:36Z (GMT). No. of bitstreams: 1
185050.pdf: 586480 bytes, checksum: b3d3d2130847c5692e2b2324aa45bddd (MD5) / Levando-se em conta a necessidade de um maior conhecimento sobre a situação da rastreabilidade como ferramenta da garantia da qualidade e conquista de novos mercados, propôs-se a realização de uma pesquisa baseada em publicações que tratem do assunto rastreabilidade focado na área agroindustrial. Tendo como objetivo, tomar conhecimento de políticas oficiais e iniciativas privadas que garantam a rastreabilidade, aplicação de conceitos pré-definidos; e também conhecer métodos e sistemas já implantados com sucesso na indústria, utilizando diversas tecnologias que favoreçam o controle e sirvam como base de sustentação do processo.
|
192 |
Identificação de problemas no fluxo de faturamento das operadoras de telecomunicaçõesDe Luca, Sandro Daros January 2002 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação. / Made available in DSpace on 2012-10-20T08:56:27Z (GMT). No. of bitstreams: 0Bitstream added on 2014-09-26T01:12:17Z : No. of bitstreams: 1
184564.pdf: 2802177 bytes, checksum: 1a55428196514e29bb5410c5beb3029d (MD5) / Este trabalho apresenta um mecanismo para analisar dados de chamadas telefônicas de teste. A idéia central é analisar problemas no fluxo de faturamento das operadoras, a partir dos registros de chamadas gerados pela central telefônica (CDR - Call Detail Recording) e dos gerados por um equipamento de teste. Com esta análise pretende-se indicar os pontos de falhas na geração dos CDRs. Para realizar esta análise, utilizar-se-á dos mecanismos computacionais de lógica fuzzy e regras de produção.
|
193 |
Interface da rede de trabalho do cluster cluxRech, Luciana de Oliveira January 2001 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnologico. Programa de Pós-Graduação em Ciência da Computação. / Made available in DSpace on 2012-10-19T05:24:21Z (GMT). No. of bitstreams: 0 / Este trabalho está inserido no contexto do projeto Cluster CLUX, que visa a construção de um ambiente para execução de programas paralelos em um sistema de computação constituído por um conjunto de estações de trabalho independentes conectadas através de uma rede de interconexão dinâmica. O objetivo deste trabalho é a implementação da interface da rede de interconexão dinâmica do cluster Clux responsável pela comunicação através de trocas de mensagens, entre os processos dos programas paralelos que executam nas estações de trabalho componentes do cluster.
|
194 |
Uma abordagem baseada em seleçao pelas conseqüencias para aprendizagem de redes neurais multi-camadas voltadas r concepçao de sistemas autômos inteligentesHaydu, Nícholas Bender 04 February 2011 (has links)
Resumo: Um modelo de rede neural artificial é proposto. A rede neural possui múltiplas camadas. Cada camada da rede neural é formada por uma grade quadrangular de neurônios (em um espaço toroidal). As conexões sinápticas de cada neurônio abrangem três tipos: excitatórias inter-camadas, laterais inibitórias intra-camada e laterais excitatórias intra-camada. A disposição espacial das conexões é do tipo Gaussiana e específica para cada tipo de sinapse. Cada neurônio estabelece um número restrito de conexões. O modelo de arquitetura contribui para eliminar restrições apresentadas por arquiteturas em que entradas e conexões são distribuídas a todos os neurônios de cada camada. O modelo do neurônio apresenta dinâmica interna, proporcionando uma memória da atividade recente e assumindo papel importante na aprendizagem. A aprendizagem ê baseada na seleção pelas conseqüências, conforme princípios de aprendizagem por reforço. Em particular, a de aprendizagem por reforço utilizada é do tipo clássico. Os experimentos definidos para investigação e confirmação das capacidades da rede neural consideram um ambiente simulado, condizente com o modelo de Seleção pelas Conseqüências. Os resultados obtidos em simulações mostram que o modelo é capaz de reproduzir diversos fenômenos comportamentais, que são: aquisição de comportamento respondente, extinção de comportamento respondente, aquisição de comportamento operante, extinção de comportamento operante, capacidade de generalização de estímulos, habilidade no controle da intensidade das respostas, capacidade de controle de múltiplas respostas e fusão de sensores. Experimentos também ilustram o importante papel das conexões laterais inibitórias e das conexões laterais excitatórias na modelagem da formação de grupos neurais em nível operante. Entende-se que a capacidade de aprendizagem alcançada pela rede neural proposta torna-a viável para a concepção de sistemas autônomos inteligentes com potencialidades superiores àqueles divulgados na literatura especializada.
|
195 |
Sistema computacional baseado em aprendizado de maquina para posicionamento taxonômico de bactérias utilizando dados fenotípicosSantana, Julio Galvão January 2013 (has links)
Orientadora : Profª. Drª. Maria Berenice Steffens / Coorientador : Prof. Dr. Roberto Tadeu Raittz / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Educação Profissional e Tecnológica, Programa de Pós-Graduação em Bioinformática. Defesa: Curitiba, 16/05/2013 / Inclui referências / As bactérias são organismos unicelulares que apresentam ampla diversidade morfológica, metabólica e ecológica. Estes microrganismos pertencem ao Domínio Bactéria que, atualmente, conta com 52 Filos. A taxonomia bacteriana inclui a descolberta, descrição e classificaçãode acordo com normas e princípios, o processo formal de atribuição de nome e a identificação propriamente dita, de um organismo desconhecido. Historicamente, a identificação e classificação de bactérias tem se baseado principlamente na morfologia, composição e meio de cultuvo, potencial de patogenicidade, fisiologia e bioquímica. atualmente, são também utilizadas informações de ordem fenotípica, genotípica, ecológica e filogenética para produzir uma taxonomia multidimensional. A proposta deste trabalho foi auxiliar na aplicação dos métodos convencionais atraés da associação da abordagem computacional ao processo de identificação e classificação de bactécrias. Foi aplicado o conceito de aprendizado de máquina no desenvolvimento de uma ferramenta que permite realizar o posicionamento taxonômico de bactérias baseado em ensaios bioquímicos e fisiológicos. O sistema apresenta funcionalidades que permitem ao usuário cadastrar artigos científicos e espécies bacterianas; cadastrar diferentes categorias de testes e os respectivos resultados (características) disponíveis na literatura ou obtidos no laboratório; obter relatórios referentes aos resultados cadastrados e, finalmente extrair características a serem utilizadas no treinamento da rede neural FAN (módulo integrado), para então obter o posicionamento taxonômico, em nível de gênero, de uma dada bactéria. Um protótipo foi construído com dados coletados de artigos que descrevem novas espécies de bactérias e o conjunto contem 228 espécies pertencentes a 10 gêneros. Em paralelo, foi estruturado um banco de dados para armazenamento e consula dos artigos. O treinamento da rede foi validado pelo Cross-validation ( Leave one out) com uma taxa de acerto de 93%. Isto indica que é possível obter a calssificação de bactérias utilizando somente resultados de ensaios bioquímicos e fisológicos.
Palavras chaves: Taxonimia de bactérias, rede neural, bioinformática / Abstract: Bacteria are unicellular organisms that display a wide morphological, metabolic and ecological diversity. These microorganisms belong to the domain Bacteria, which currently has 52 phyla. Bacterial taxonomy includes the discovery, description and classification according to rules and principles, the formal process of naming and identification, strictly speaking, an unknown organism. Historically, the identification and classification of bacteria has been mainly based on the morphology, composition of the culture medium, potential pathogenicity, physiology and biochemistry. Currently, phenotypic, genotypic, phylogenetic and ecological information is also used to produce a multidimensional taxonomy. The purpose of this study was to assist in the application of conventional methods by combining the computational approach to the identification and classification of bacteria process. The concept of machine learning as a tool which allows the taxonomic position of bacteria based on biochemical and physiological tests was applied in the development. The system displays features that allow the user to register scientific articles and bacterial species; to register different categories of tests and results (features) available in the literature or obtained in the laboratory; to obtain reports on the results registered and finally to extract features to be used in the FAN neural network training (integrated module), and then to obtain the taxonomic position of the genus of a certain bacterium. A prototype was built with data collected from articles describing new species of bacteria and the set contained 228 species belonging to 10 genera. In parallel, it was created a database for storage and retrieval of articles. Network training was validated by cross-validation (leave one out) with an accuracy rate of 93%. This indicates that it is possible to obtain the classification of bacteria using only results from biochemical and physiological tests.
Key words: Taxonomy of bacteria, neural network, bioinformatics
|
196 |
Detecção e remediação de erros através de múltiplas representações externas e da teoria da reparaçãoSilva, Derik Evangelista Rodrigues da January 2014 (has links)
Orientador : Prof. Dr.Andrey Ricardo Pimentel / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 29/08/2014 / Inclui referências / Resumo:Neste trabalho, são apresentados aspectos que ilustram a necessidade da utilização de múltiplas representações externas em um tutor inteligente para a remediação de erros cometidos pelo aprendiz. Nesta pesquisa é apresentado um tutor desenvolvido com base na Teoria da Reparação. Não foi encontrado nenhum trabalho na literatura científica que mesclasse a Teoria da Reparação com as Múltiplas Representações Externas para fins de remediação de erro. Foi realizado um estudo sobre conceitos e definições importantes na área de sistemas tutores inteligentes, teorias de aprendizado, múltiplas representações externas e classificações de erros matemáticos. Com base neste estudo, desenvolveu-se um tutor inteligente para ensino da operação de subtração, detalhando a sua arquitetura e funcionamento. Ao final, são apresentadas as perspectivas de trabalhos futuros. Palavras-chave: Objetos de Aprendizagem, Teoria da Reparação, remediação de erros, Múltiplas Representações Externas / Abstract: This document describes several aspects that illustrate the need to use multiple external
representations in a intelligent tutoring system in order to remediate the student's
errors. The main purpose of this research is present a tutor constructed over the repair
theory. No work have been found in the scientic literature that put together the repair
theory and multiple external representations, aiming the error remediation. A study of
important concepts and denitions in the eld of intelligent tutoring systems, learning
theories, multiple external representations and classications of mathematical errors was
conducted. Based on this study, an intelligent tutor was developed for teaching of the
subtraction, detailing its architecture and operation. Finally, we present future works
perspectives.
Keywords: Learning objects, Repair Theory, error remediation, Multiple External Representations
|
197 |
Gerando dados para o teste de mutação de linha de produto de software com algoritmos de otimização multiobjetivoMatnei Filho, Rui Angelo January 2015 (has links)
Orientador : Prof. Dr. Silvia Regina Vergilio / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 16/04/2015 / Inclui referências : fls 85-95 / Resumo: O teste de mutação tem sido recentemente aplicado no teste de Linha de Produto de Software. A ideia consiste em selecionar produtos para o teste de acordo com operadores de mutacao que representam possíveis defeitos em um diagrama de características (feature model - FM). Esses operadores associados ao escore de mutacao são então usados para avaliacão e geracão de conjuntos de casos de teste. A geracao de conjuntos de casos de teste que matem todos os mutantes e que, alem disso, satisfaçam outros requisitos para o teste de software, tais como o menor número possível de produtos, e uma tarefa complexa. A fim de resolver esse problema, este trabalho propoe uma abordagem de otimizacao multiobjetivo que inclui uma representacão para o problema, operadores de busca e uma funcao de avaliacao que inclui três objetivos relacionados ao numero de casos de teste, numero de mutantes mortos e numero de pares de características cobertos. A abordagem foi implementada com três algoritmos evolutivos multiobjetivos: NSGA- II, SPEA2 e IBEA. Foram realizados dois experimentos: um experimento (2M) com dois objetivos considerando tamanho do conjunto e numero de mutantes mortos; e um experimento (3MP) com três objetivos considerando tamanho do conjunto, numero de mutantes mortos e cobertura de pares de características (pairwise testing). A avaliacao realizada analisou as soluçoes obtidas e comparou os algoritmos. De maneira geral todos obtiveram um bom desempenho com destaque para o tempo de execuçcãao do IBEA, o nímero de soluçoes do NSGA-II no experimento 2M e a unanimidade de melhores solucães obtidas pelo algoritmo SPEA2 no experimento 3MP. Uma vantagem dessa abordagem e oferecer ao testador um conjunto de boas solucoes, com um numero reduzido de produtos e altos valores de cobertura. / Abstract: The mutation test has recently been applied to the Software Product Line testing. The idea is to select products for testing according to mutation operators that represent possible faults in the Feature Model - FM. These operators associated with the mutation score are then used for evaluation and generation of test case sets. The generation of test sets to kill all mutants, and also meet other testing requirements with the minimum possible number of products, is a complex task. To solve this problem, this work proposes a multiobjective optimization approach that includes a representation to the problem, search operators and a fitness function with three objectives, related to the number of test cases, number of mutants killed, and number of covered feature pairs. The approach was implemented with three multiobjective evolutionary algorithms: NSGA-II, SPEA2 and IBEA. Two experiments were conducted: one experiment (2M) with two objectives: set size and number of killed mutants; and other one (3MP) with three objectives: set size, number of killed mutants and feature coverage (pairwise testing). The evaluation analyzes the solutions obtained and compares the algorithms. In general all algorithms performed well. Among the main results we can mention: the IBEA runtime and the number of solutions obtained by NSGA-II in the experiment 2M and the best solutions obtained by SPEA2 in the experiment 3MP. An advantage of this approach is to offer the tester a set of good solutions, with a small number of products and high coverage values.
|
198 |
Comparação de técnicas de medição de potência reativa sob condições não-senoidais com ênfase na transformada Wavelet / Comparison of reactive power measurement techniques under non-sinusoidal conditions focused on wavelet transformVieira, Daniel 09 March 2012 (has links)
Dissertação (mestrado)—Universidade de Brasília, Departamento de Engenharia Elétrica, 2012. / Submitted by Albânia Cézar de Melo (albania@bce.unb.br) on 2012-05-21T13:06:57Z
No. of bitstreams: 1
2012_DanielVieira.pdf: 1346139 bytes, checksum: 4b3c1c45ed568636823e91b3270a470d (MD5) / Approved for entry into archive by Marília Freitas(marilia@bce.unb.br) on 2012-05-23T11:31:27Z (GMT) No. of bitstreams: 1
2012_DanielVieira.pdf: 1346139 bytes, checksum: 4b3c1c45ed568636823e91b3270a470d (MD5) / Made available in DSpace on 2012-05-23T11:31:27Z (GMT). No. of bitstreams: 1
2012_DanielVieira.pdf: 1346139 bytes, checksum: 4b3c1c45ed568636823e91b3270a470d (MD5) / A medição eletrônica de potência em sistemas elétricos nos quais a tensão ou corrente sejam distorcidas pode apresentar sérias discrepâncias entre os valores medidos e aqueles definidos teoricamente. Esse cenário se agrava quando se trata da obtenção dos valores de
potência reativa, tanto pelo fato de as definições teóricas ainda não estarem completamente consolidadas, quanto devido à inexatidão dos medidores eletrônicos para exibir valores coerentes com a realidade. Nesse contexto, este trabalho faz uma análise das técnicas de medição para faturamento de potência reativa em instalações de baixa tensão com grandes distorções harmônicas.
Primeiramente, apresentam-se as definições de potência sob condições não-senoidais e os
problemas atrelados a essas acepções e, em seguida, são analisados e comparados seis métodos de medição: técnica do triângulo de potências, deslocamento de 90°, integração da tensão, derivação da tensão, transformada de Fourier e, por fim, a transformada wavelet, para a qual é dada especial atenção. Utilizando-se algoritmos dessas técnicas de medição implementados computacionalmente,
fazem-se simulações de sinais de tensão e corrente com distorções harmônicas. Os resultados revelam que diversas formas de medição apresentam erros grandes quando submetidas a sinais não-senoidais, mesmo nos casos em que a tensão e corrente tenham distorções dentro de valores de referência.
Adicionalmente, realiza-se uma análise de sensibilidade que demonstra que a escolha da técnica de medição mais apropriada depende fortemente da definição de potência reativa. Em especial, conclui-se que a utilização da transformada wavelet fornece bons resultados em todos os cenários, com esforço computacional significativamente menor que aquele da tradicional transformada de Fourier. Conclui-se ainda que a utilização do fator de
descolamento como forma de faturamento tem vantagens sobre o uso do fator de potência
verdadeiro, visto que se trata de uma grandeza independente das distorções harmônicas na tensão de fornecimento e que pode ser facilmente medida pelo uso de transformadas e
também por algumas técnicas simples de medição eletrônica. ______________________________________________________________________________ ABSTRACT / This paper analyzes reactive power measurement techniques in low voltage installations with high harmonic distortion levels. First, we present the definitions of power under non-sinusoidal conditions and their outcomes, and then we analyze and compare six different methods of reactive power measurement: power triangle technique, 90° displacement of
voltage, voltage integration, voltage differentiation, Fourier transform, and wavelet transform. By using computationally implemented algorithms, we perform simulations with typical
non-sinusoidal voltage and current signals. The results show that several measurement techniques engender large errors when obtaining reactive power in systems with harmonic distortions, even when the voltage and current distortions are within reference values. Finally, a sensitivity analysis is carried out and helps infer that the appropriate choice of
the measurement technique depends strongly on the definition of reactive power (considering all harmonic distortions or only the fundamental component). In particular, we conclude that the use of wavelet transform provides good results in all cases, with significantly less computational effort than that of traditional Fourier transform.
|
199 |
Sistema baseado em vídeo para detecção de sonolência em motoristasQueiroz, Kédson Lopes de 31 September 2011 (has links)
Dissertação (mestrado)—Universidade de Brasília, Departamento de Engenharia Elétrica, 2011. / Submitted by Albânia Cézar de Melo (albania@bce.unb.br) on 2012-06-04T16:04:14Z
No. of bitstreams: 1
2011_KedsonLopesQueiroz.pdf: 11459078 bytes, checksum: 2d3b49d1d1f52f81bf3027811b74290b (MD5) / Approved for entry into archive by Jaqueline Ferreira de Souza(jaquefs.braz@gmail.com) on 2012-06-14T13:22:28Z (GMT) No. of bitstreams: 1
2011_KedsonLopesQueiroz.pdf: 11459078 bytes, checksum: 2d3b49d1d1f52f81bf3027811b74290b (MD5) / Made available in DSpace on 2012-06-14T13:22:28Z (GMT). No. of bitstreams: 1
2011_KedsonLopesQueiroz.pdf: 11459078 bytes, checksum: 2d3b49d1d1f52f81bf3027811b74290b (MD5) / A sonolência em motoristas é uma das principais causas de acidentes de trânsito. O monitoramento de um motorista para detectar a seu nível de fadiga é um problema complexo que envolve elementos fisiológicos e comportamentais. Diferentes abordagens têm sido feitas e, entre elas, a visão computacional tem o potencial de monitoramento da pessoa atrás do volante sem interferir na sua condução. Uma estimativa do estado de alerta do motorista pode ser obtida através da análise de suas expressões faciais e do abrir e fechar dos seus olhos. Este trabalho demonstra o desenvolvimento de um dispositivo não invasivo, que utiliza a localização e o rastreamento do
rosto e dos olhos para monitorizar o estado de alerta em motoristas. O sistema desenvolvido neste trabalho funciona com índices de desempenho superiores a 94% na detecção de fadiga. ______________________________________________________________________________ ABSTRACT / Sleepiness in drivers is a major cause of traffic accidents. The monitoring of a driver to detect the level of fatigue is a complex problem that involves physiological and behavioral elements. Different
approaches have been made and among them, computer vision has the potential to monitor the person behind the wheel without interfering with your driving. An estimate of the alertness of the driver can be obtained by analyzing facial expressions and open and close your eyes. This
work demonstrates the development of a noninvasive device that uses the location and tracking of face and eyes to monitor alertness in drivers. The system developed in this paper works with performance exceeding 94% in the detection of fatigue.
|
200 |
A user-centered and autonomic multi-cloud architecture for high performance computing applicationsLeite, Alessandro Ferreira 02 December 2014 (has links)
Tese (doutorado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2014. / Submitted by Ana Cristina Barbosa da Silva (annabds@hotmail.com) on 2015-05-25T14:38:06Z
No. of bitstreams: 1
2014_AlessandroFerreiraLeite.pdf: 9950238 bytes, checksum: 5899f0fba30e3075ce700c4440d984f9 (MD5) / Approved for entry into archive by Guimaraes Jacqueline(jacqueline.guimaraes@bce.unb.br) on 2015-05-25T15:49:14Z (GMT) No. of bitstreams: 1
2014_AlessandroFerreiraLeite.pdf: 9950238 bytes, checksum: 5899f0fba30e3075ce700c4440d984f9 (MD5) / Made available in DSpace on 2015-05-25T15:49:14Z (GMT). No. of bitstreams: 1
2014_AlessandroFerreiraLeite.pdf: 9950238 bytes, checksum: 5899f0fba30e3075ce700c4440d984f9 (MD5) / A computação em nuvem tem sido considerada como uma opção para executar aplicações de alto desempenho. Entretanto, enquanto as plataformas de alto desempenho tradicionais como grid e supercomputadores oferecem um ambiente estável quanto à falha, desempenho e número de recursos, a computação em nuvem oferece recursos sob demanda, geralmente com desempenho imprevisível à baixo custo financeiro. Além disso, em ambiente de nuvem, as falhas fazem parte da sua normal operação. No entanto, as nuvens podem ser combinadas, criando uma federação, para superar os limites de uma nuvem muitas vezes com um baixo custo para os usuários. A federação de nuvens pode ajudar tanto os provedores quanto os usuários das nuvens a atingirem diferentes objetivos tais como: reduzir o tempo de execução de uma aplicação, reduzir o custo financeiro, aumentar a disponibilidade do ambiente, reduzir o consumo de energia, entre outros. Por isso, a federação de nuvens pode ser uma solução elegante para evitar o sub-provisionamento de recursos ajudando os provedores a reduzirem os custos operacionais e a reduzir o número de recursos ativos, que outrora ficariam ociosos consumindo energia, por exemplo. No entanto, a federação de nuvens aumenta as opções de recursos disponíveis para os usuários, requerendo, em muito dos casos, conhecimento em administração de sistemas ou em computação em nuvem, bem como um tempo considerável para aprender sobre as opções disponíveis. Neste contexto, surgem algumas questões, tais como: (a) qual dentre os recursos disponíveis é apropriado para uma determinada aplicação? (b) como os usuários podem executar suas aplicações na nuvem e obter um desempenho e um custo financeiro aceitável, sem ter que modificá-las para atender as restrições do ambiente de nuvem? (c) como os usuários não especialistas em nuvem podem maximizar o uso da nuvem, sem ficar dependente de um provedor? (d) como os provedores podem utilizar a federação para reduzir o consumo de energia dos datacenters e ao mesmo tempo atender os acordos de níveis de serviços? A partir destas questões, este trabalho apresenta uma solução para consolidação de aplicações em nuvem federalizadas considerando os acordos de serviços. Nossa solução utiliza um sistema multi-agente para negociar a migração das máquinas virtuais entres as nuvens. Simulações mostram que nossa abordagem pode reduzir em até 46% o consumo de energia e atender os requisitos de qualidade. Nós também desenvolvemos e avaliamos uma solução para executar uma aplicação de bioinformática em nuvens federalizadas, a custo zero. Nesse caso, utilizando a federação, conseguimos diminuir o tempo de execução da aplicação em 22,55%, considerando o seu tempo de execução na melhor nuvem. Além disso, este trabalho apresenta uma arquitetura chamada Excalibur, que possibilita escalar a execução de aplicações comuns em nuvem. Excalibur conseguiu escalar automaticamente a execução de um conjunto de aplicações de bioinformática em até 11 máquinas virtuais, reduzindo o tempo de execução em 63% e o custo financeiro em 84% quando comparado com uma configuração definida pelos usuários. Por fim, este trabalho apresenta um método baseado em linha de produto de software para lidar com as variabilidades dos serviços oferecidos por nuvens de infraestrutura (IaaS), e um sistema que utiliza deste processo para configurar o ambiente e para lidar com falhas de forma automática. O nosso método utiliza modelo de feature estendido com atributos para descrever os recursos e para selecioná-los com base nos objetivos dos usuários. Experimentos realizados com dois provedores diferentes mostraram que utilizando o nosso processo, os usuários podem executar as suas aplicações em um ambiente de nuvem federalizada, sem conhecer as variabilidades e limitações das nuvens. _______________________________________________________________________________________ ABSTRACT / Cloud computing has been seen as an option to execute high performance computing (HPC) applications. While traditional HPC platforms such as grid and supercomputers offer a stable environment in terms of failures, performance, and number of resources, cloud computing offers on-demand resources generally with unpredictable performance at low financial cost. Furthermore, in cloud environment, failures are part of its normal operation. To overcome the limits of a single cloud, clouds can be combined, forming a cloud federation often with minimal additional costs for the users. A cloud federation can help both cloud providers and cloud users to achieve their goals such as to reduce the execution time, to achieve minimum cost, to increase availability, to reduce power consumption, among others. Hence, cloud federation can be an elegant solution to avoid over provisioning, thus reducing the operational costs in an average load situation, and removing resources that would otherwise remain idle and wasting power consumption, for instance. However, cloud federation increases the range of resources available for the users. As a result, cloud or system administration skills may be demanded from the users, as well as a considerable time to learn about the available options. In this context, some questions arise such as: (a) which cloud resource is appropriate for a given application? (b) how can the users execute their HPC applications with acceptable performance and financial costs, without needing to re-engineer the applications to fit clouds’ constraints? (c) how can non-cloud specialists maximize the features of the clouds, without being tied to a cloud provider? and (d) how can the cloud providers use the federation to reduce power consumption of the clouds, while still being able to give service-level agreement (SLA) guarantees to the users? Motivated by these questions, this thesis presents a SLA-aware application consolidation solution for cloud federation. Using a multi-agent system (MAS) to negotiate virtual machine (VM) migrations between the clouds, simulation results show that our approach could reduce up to 46% of the power consumption, while trying to meet performance requirements. Using the federation, we developed and evaluated an approach to execute a huge bioinformatics application at zero-cost. Moreover, we could decrease the execution time in 22.55% over the best single cloud execution. In addition, this thesis presents a cloud architecture called Excalibur to auto-scale cloud-unaware application. Executing a genomics workflow, Excalibur could seamlessly scale the applications up to 11 virtual machines, reducing the execution time by 63% and the cost by 84% when compared to a user’s configuration. Finally, this thesis presents a software product line engineering (SPLE) method to handle the commonality and variability of infrastructure-as-a-service (IaaS) clouds, and an autonomic multi-cloud architecture that uses this method to configure and to deal with failures autonomously. The SPLE method uses extended feature model (EFM) with attributes to describe the resources and to select them based on the users’ objectives. Experiments realized with two different cloud providers show that using the proposed method, the users could execute their application on a federated cloud environment, without needing to know the variability and constraints of the clouds. _______________________________________________________________________________________ RÉSUMÉ / Le cloud computing a été considéré comme une option pour exécuter des applications de calcul haute performance (HPC). Bien que les plateformes traditionnelles de calcul haute performance telles que les grilles et les supercalculateurs offrent un environnement stable du point de vue des défaillances, des performances, et de la taille des ressources, le cloud computing offre des ressources à la demande, généralement avec des performances imprévisibles mais à des coûts financiers abordables. En outre, dans un environnement de cloud, les défaillances sont perçues comme étant ordinaires. Pour surmonter les limites d’un cloud individuel, plusieurs clouds peuvent être combinés pour former une fédération de clouds, souvent avec des coûts supplémentaires légers pour les utilisateurs. Une fédération de clouds peut aider autant les fournisseurs que les utilisateurs à atteindre leurs objectifs tels la réduction du temps d’exécution, la minimisation des coûts, l’augmentation de la disponibilité, la réduction de la consummation d’énergie, pour ne citer que ceux-là. Ainsi, la fédération de clouds peut être une solution élégante pour éviter le sur-approvisionnement, réduisant ainsi les coûts d’exploitation en situation de charge moyenne, et en supprimant des ressources qui, autrement, resteraient inutilisées et gaspilleraient ainsi de énergie. Cependant, la fédération de clouds élargit la gamme des ressources disponibles. En conséquence, pour les utilisateurs, des compétences en cloud computing ou en administration système sont nécessaires, ainsi qu’un temps d’apprentissage considérable pour maîtrises les options disponibles. Dans ce contexte, certaines questions se posent : (a) Quelle ressource du cloud est appropriée pour une application donnée ? (b) Comment les utilisateurs peuvent-ils exécuter leurs applications HPC avec un rendement acceptable et des coûts financiers abordables, sans avoir à reconfigurer les applications pour répondre aux norms et contraintes du cloud ? (c) Comment les non-spécialistes du cloud peuvent-ils maximiser l’usage des caractéristiques du cloud, sans être liés au fournisseur du cloud ? et (d) Comment les fournisseurs de cloud peuvent-ils exploiter la fédération pour réduire la consommation électrique, tout en étant en mesure de fournir un service garantissant les normes de qualité préétablies ? À partir de ces questions, la presente thèse propose une solution de consolidation d’applications pour la fédération de clouds qui garantit le respect des normes de qualité de service. On utilise un système multi-agents (SMA) pour négocier la migration des machines virtuelles entre les clouds. Les résultats de simulations montrent que notre approche pourrait réduire jusqu’à 46% la consommation totale d’énergie, tout en respectant les exigencies de performance. En nous basant sur la fédération de clouds, nous avons développé et évalué une approche pour exécuter une énorme application de bioinformatique à coût zéro. En outre, nous avons pu réduire le temps d’exécution de 22,55% par rapport à la meilleure exécution dans un cloud individuel. Cette thèse présente aussi une architecture de cloud baptisée « Excalibur » qui permet l’adaptation automatique des applications standards pour le cloud. Dans l’exécution d’une chaîne de traitements de la génomique, Excalibur a pu parfaitement mettre à l’échelle les applications sur jusqu’à 11 machines virtuelles, ce qui a réduit le temps d’exécution de 63% et le coût de 84% par rapport à la configuration de l’utilisateur. Enfin, cette thèse présente un processus d’ingénierie des lignes de produits (PLE) pour gérer la variabilité de l’infrastructure à la demande du cloud, et une architecture multi-cloud autonome qui utilise ce processus pour configurer et faire face aux défaillances de manière indépendante. Le processus PLE utilise le modele étendu de fonction (EFM) avec des attributs pour décrire les ressources et les sélectionner en fonction dês objectifs de l’utilisateur. Les expériences réalisées avec deux fournisseurs de cloud différents montrent qu’em utilisant le modèle proposé, les utilisateurs peuvent exécuter leurs applications dans un environnement de clouds fédérés, sans avoir besoin de connaître les variabilités et contraintes du cloud.
|
Page generated in 0.0508 seconds